論文の概要: Principled Context Engineering for RAG: Statistical Guarantees via Conformal Prediction
- arxiv url: http://arxiv.org/abs/2511.17908v1
- Date: Sat, 22 Nov 2025 04:17:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.508253
- Title: Principled Context Engineering for RAG: Statistical Guarantees via Conformal Prediction
- Title(参考訳): RAGの原理的文脈工学:コンフォーマル予測による統計的保証
- Authors: Debashish Chakraborty, Eugene Yang, Daniel Khashabi, Dawn Lawrie, Kevin Duh,
- Abstract要約: Retrieval-Augmented Generation (RAG)は、大規模言語モデルにおける現実的な基盤を強化する。
既存の前世代のフィルターは信頼性のスコアに依存しており、保持された証拠に対する統計的制御を提供していない。
本研究では,コンフォメーション予測によるコンテキスト工学の実証を行う。
- 参考スコア(独自算出の注目度): 40.28465841863481
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Retrieval-Augmented Generation (RAG) enhances factual grounding in large language models (LLMs) by incorporating retrieved evidence, but LLM accuracy declines when long or noisy contexts exceed the model's effective attention span. Existing pre-generation filters rely on heuristics or uncalibrated LLM confidence scores, offering no statistical control over retained evidence. We evaluate and demonstrate context engineering through conformal prediction, a coverage-controlled filtering framework that removes irrelevant content while preserving recall of supporting evidence. Using both embedding- and LLM-based scoring functions, we test this approach on the NeuCLIR and RAGTIME collections. Conformal filtering consistently meets its target coverage, ensuring that a specified fraction of relevant snippets are retained, and reduces retained context by 2-3x relative to unfiltered retrieval. On NeuCLIR, downstream factual accuracy measured by ARGUE F1 improves under strict filtering and remains stable at moderate coverage, indicating that most discarded material is redundant or irrelevant. These results demonstrate that conformal prediction enables reliable, coverage-controlled context reduction in RAG, offering a model-agnostic and principled approach to context engineering.
- Abstract(参考訳): Retrieval-Augmented Generation (RAG) は、検索された証拠を組み込むことで、大規模言語モデル(LLM)の現実的な基盤を強化するが、LLMの精度は、長期またはノイズの多いコンテキストがモデルの効果的な注意範囲を超えると低下する。
既存の前世代のフィルターはヒューリスティックスやLLMの信頼性スコアに依存しており、保持された証拠に対する統計的制御を提供していない。
我々は,証拠の記憶を保ちながら,無関係なコンテンツを除去するカバー制御フィルタリングフレームワークであるコンフォメーション予測を用いて,文脈工学を評価し,実証する。
埋め込み型とLLM型の両方のスコアリング関数を用いて、NeuCLIRとRAGTIMEのコレクション上でこのアプローチをテストする。
コンフォーマルフィルタリングはその対象のカバレッジを一貫して満たし、特定のスニペットの断片が保持されることを保証し、未フィルタリングの検索に対して保持されたコンテキストを2~3倍削減する。
NeuCLIRでは、ARGUE F1によって測定された下流の事実精度は厳密なフィルタリングの下で改善され、適度な範囲で安定であり、ほとんどの廃棄された物質は冗長であるか無関係であることを示している。
これらの結果は、コンフォメーション予測がRAGの信頼性、カバレッジ制御されたコンテキスト還元を可能にし、コンテキスト工学に対するモデルに依存しない、原則化されたアプローチを提供することを示す。
関連論文リスト
- RADIANT: Retrieval AugmenteD entIty-context AligNmenT -- Introducing RAG-ability and Entity-Context Divergence [18.268335797537983]
Retrieval-Augmented Generation (RAG) は、外部知識を生成プロセスに統合することにより、事実の精度を高める技術である。
本稿では,得られた証拠と生成されたコンテンツとの相互作用を最適化するために,RAGとアライメントを組み合わせたフレームワークであるRadiantを紹介する。
論文 参考訳(メタデータ) (2025-06-28T21:40:35Z) - Retrieval is Not Enough: Enhancing RAG Reasoning through Test-Time Critique and Optimization [58.390885294401066]
Retrieval-augmented Generation (RAG) は知識基底型大規模言語モデル(LLM)を実現するためのパラダイムとして広く採用されている。
RAGパイプラインは、モデル推論が得られた証拠と整合性を維持するのに失敗することが多く、事実上の矛盾や否定的な結論につながる。
批判駆動アライメント(CDA)に基づく新しい反復的枠組みであるAlignRAGを提案する。
AlignRAG-autoは、動的に洗練を終了し、批判的な反復回数を事前に指定する必要がなくなる自律的な変種である。
論文 参考訳(メタデータ) (2025-04-21T04:56:47Z) - ChunkRAG: Novel LLM-Chunk Filtering Method for RAG Systems [2.8692611791027893]
Retrieval-Augmented Generation (RAG) システムは、無関係またはゆるい関連情報の検索によって不正確な応答を生成する。
チャンクレベルで取得した情報を評価・フィルタリングすることでRAGシステムを強化するフレームワークであるChunkRAGを提案する。
論文 参考訳(メタデータ) (2024-10-25T14:07:53Z) - AMRFact: Enhancing Summarization Factuality Evaluation with AMR-Driven Negative Samples Generation [57.8363998797433]
抽象的意味表現(AMR)を用いた摂動要約を生成するフレームワークであるAMRFactを提案する。
提案手法は,AMRグラフに一貫した要約を解析し,制御された事実不整合を注入して負の例を生成し,一貫性のない事実不整合要約を高い誤差型カバレッジで生成する。
論文 参考訳(メタデータ) (2023-11-16T02:56:29Z) - Risk Minimization from Adaptively Collected Data: Guarantees for
Supervised and Policy Learning [57.88785630755165]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、機械学習のワークホースであるが、適応的に収集されたデータを使用すると、そのモデルに依存しない保証が失敗する可能性がある。
本研究では,仮説クラス上での損失関数の平均値を最小限に抑えるため,適応的に収集したデータを用いた一般的な重み付きERMアルゴリズムについて検討する。
政策学習では、探索がゼロになるたびに既存の文献のオープンギャップを埋める率-最適後悔保証を提供する。
論文 参考訳(メタデータ) (2021-06-03T09:50:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。