論文の概要: Bounding Hallucinations: Information-Theoretic Guarantees for RAG Systems via Merlin-Arthur Protocols
- arxiv url: http://arxiv.org/abs/2512.11614v1
- Date: Fri, 12 Dec 2025 14:50:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-15 15:48:11.809922
- Title: Bounding Hallucinations: Information-Theoretic Guarantees for RAG Systems via Merlin-Arthur Protocols
- Title(参考訳): 幻覚の境界:Merlin-ArthurプロトコルによるRAGシステムの情報理論保証
- Authors: Björn Deiseroth, Max Henning Höth, Kristian Kersting, Letitia Parcalabescu,
- Abstract要約: 本稿では,RAGパイプライン全体をインタラクティブな証明システムとして扱うためのトレーニングフレームワークを提案する。
その結果,M/A訓練によるLLMは,基礎性,完全性,音性,拒否行動が改善された。
本研究は,自律型対話型防犯スタイルの監視が,信頼性の高いRAGシステムへの原則的かつ実践的な経路を提供することを示す。
- 参考スコア(独自算出の注目度): 40.19713302778418
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Retrieval-augmented generation (RAG) models rely on retrieved evidence to guide large language model (LLM) generators, yet current systems treat retrieval as a weak heuristic rather than verifiable evidence. As a result, LLMs answer without support, hallucinate under incomplete or misleading context, and rely on spurious evidence. We introduce a training framework that treats the entire RAG pipeline -- both the retriever and the generator -- as an interactive proof system via an adaptation of the Merlin-Arthur (M/A) protocol. Arthur (the generator LLM) trains on questions of unkown provenance: Merlin provides helpful evidence, while Morgana injects adversarial, misleading context. Both use a linear-time XAI method to identify and modify the evidence most influential to Arthur. Consequently, Arthur learns to (i) answer when the context support the answer, (ii) reject when evidence is insufficient, and (iii) rely on the specific context spans that truly ground the answer. We further introduce a rigorous evaluation framework to disentangle explanation fidelity from baseline predictive errors. This allows us to introduce and measure the Explained Information Fraction (EIF), which normalizes M/A certified mutual-information guarantees relative to model capacity and imperfect benchmarks. Across three RAG datasets and two model families of varying sizes, M/A-trained LLMs show improved groundedness, completeness, soundness, and reject behavior, as well as reduced hallucinations -- without needing manually annotated unanswerable questions. The retriever likewise improves recall and MRR through automatically generated M/A hard positives and negatives. Our results demonstrate that autonomous interactive-proof-style supervision provides a principled and practical path toward reliable RAG systems that treat retrieved documents not as suggestions, but as verifiable evidence.
- Abstract(参考訳): Retrieval-augmented Generation (RAG) モデルは、大規模言語モデル(LLM)ジェネレータを導くために、検索された証拠に依存するが、現在のシステムは、検証された証拠ではなく、弱いヒューリスティックとして検索を扱う。
その結果、LLMはサポートなしで答え、不完全あるいは誤解を招く状況下で幻覚を与え、突発的な証拠に依存している。
本稿では,Merlin-Arthur (M/A)プロトコルの適応による対話型証明システムとして,レトリバーとジェネレータの両方のRAGパイプライン全体を扱うトレーニングフレームワークを導入する。
アーサー(ジェネレータLSM)は無名の証明に関する質問を訓練する: マーリンは有益な証拠を提供し、モーガンは敵対的で誤解を招く文脈を注入する。
どちらも、アーサーに最も影響力のある証拠を特定し、修正するために線形時間XAI法を使用している。
その結果、アーサーは学ぶ。
(i) 文脈が回答を支持するときの回答。
二 証拠が不十分なときは拒絶し、
(三)真に答えの土台となる特定の文脈に依存すること。
さらに、ベースライン予測誤差から説明の忠実度を遠ざけるための厳密な評価フレームワークを導入する。
これにより、モデルキャパシティと不完全なベンチマークに対して、M/A認定相互情報保証を正規化する説明情報断片(EIF)を導入し、測定することができる。
3つのRAGデータセットと2つのモデルファミリーで、M/AトレーニングされたLLMは、手動で注釈付けできない質問をすることなく、基礎性、完全性、健全性、拒否行動が改善された。
検索器も同様に、自動生成されたM/Aハードポジティと負によってリコールとMRRを改善する。
この結果から,自律的対話型防犯スタイルの監視は,検索した文書を証拠としてではなく,信頼性の高いRAGシステムへの原則的かつ実践的な経路を提供することが示された。
関連論文リスト
- GRACE: Reinforcement Learning for Grounded Response and Abstention under Contextual Evidence [9.80421132842862]
Retrieval-Augmented Generation (RAG)は、外部知識を統合してLarge Language Models (LLM)を強化する
RAGは、明確な根拠のない正しい答えを提供することと、検索された文脈が不十分な場合に製造された応答を生成するという2つの重大な欠陥に感受性がある。
本稿では,両方の欠陥を同時に軽減する強化学習フレームワークGRACEを提案する。
論文 参考訳(メタデータ) (2026-01-08T02:47:33Z) - Rational Synthesizers or Heuristic Followers? Analyzing LLMs in RAG-based Question-Answering [0.0]
GroupQAは15,058件の多種多様な証拠文書と組み合わせて、1,635件の論争を巻き起こしたデータセットである。
グループレベルのエビデンス・アグリゲーション・ダイナミクスを制御実験により特徴づける。
グループベースの回答に対する LLM の説明は不信であることがわかった。
論文 参考訳(メタデータ) (2026-01-08T01:54:21Z) - ReAG: Reasoning-Augmented Generation for Knowledge-based Visual Question Answering [54.72902502486611]
ReAG(Reasoning-Augmented Multimodal RAG)は、粗い部分ときめ細かい部分の検索と、無関係な通路をフィルタリングする批評家モデルを組み合わせた手法である。
ReAGは従来の手法よりも優れており、解答精度が向上し、検索された証拠に根ざした解釈可能な推論を提供する。
論文 参考訳(メタデータ) (2025-11-27T19:01:02Z) - Abductive Inference in Retrieval-Augmented Language Models: Generating and Validating Missing Premises [0.0]
本稿では,帰納的推論をLLMに組み込むフレームワークを提案する。
帰納的推論とマルチホップQAベンチマークの実験結果から,本手法は解答精度と帰納的忠実度の両方を改善することが示された。
この研究は、RAGシステムの堅牢性と説明可能性を高めるための有望な方向として、帰納的推論を強調している。
論文 参考訳(メタデータ) (2025-11-06T03:37:24Z) - VeriCite: Towards Reliable Citations in Retrieval-Augmented Generation via Rigorous Verification [107.75781898355562]
証拠を厳格に検証し,回答の帰属性を高めるために設計された,VeriCiteと呼ばれる新しいフレームワークを紹介する。
我々は,5つのオープンソースLCMと4つのデータセットを対象とした実験を行い,VeriCiteが回答の正しさを維持しつつ,引用品質を大幅に向上できることを実証した。
論文 参考訳(メタデータ) (2025-10-13T13:38:54Z) - Faithfulness-Aware Uncertainty Quantification for Fact-Checking the Output of Retrieval Augmented Generation [108.13261761812517]
本稿では,RAG出力における幻覚検出の新しい手法であるFRANQ(Fithfulness-based Retrieval Augmented Uncertainty Quantification)を紹介する。
本稿では,事実性と忠実性の両方に注釈を付したQAデータセットを提案する。
論文 参考訳(メタデータ) (2025-05-27T11:56:59Z) - Retrieval-Augmented Generation with Conflicting Evidence [57.66282463340297]
大規模言語モデル (LLM) エージェントは、応答の事実性を改善するために、検索強化世代 (RAG) をますます採用している。
実際には、これらのシステムは曖昧なユーザクエリを処理し、複数のソースからの情報に衝突する可能性がある。
RAMDocs(Retrieval with Ambiguity and Misinformation in Documents)は,ユーザクエリのエビデンスを矛盾させるような,複雑で現実的なシナリオをシミュレートする新しいデータセットである。
論文 参考訳(メタデータ) (2025-04-17T16:46:11Z) - Worse than Zero-shot? A Fact-Checking Dataset for Evaluating the Robustness of RAG Against Misleading Retrievals [5.605770511387228]
RAGuardは、不正検索に対するRAGシステムの堅牢性を評価する最初のベンチマークである。
合成ノイズに依存する以前のベンチマークとは異なり、ファクトチェックデータセットは自然に発生する誤報をキャプチャする。
論文 参考訳(メタデータ) (2025-02-22T05:50:15Z) - Self-RAG: Learning to Retrieve, Generate, and Critique through
Self-Reflection [74.51523859064802]
我々は、自己回帰検索拡張生成(Self-RAG)と呼ばれる新しいフレームワークを導入する。
自己RAGは、検索と自己回帰によってLMの品質と事実性を高める。
様々なタスクセットにおいて、最先端のLCMや検索強化モデルよりも大幅に優れています。
論文 参考訳(メタデータ) (2023-10-17T18:18:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。