論文の概要: PrismRAG: Boosting RAG Factuality with Distractor Resilience and Strategized Reasoning
- arxiv url: http://arxiv.org/abs/2507.18857v1
- Date: Fri, 25 Jul 2025 00:15:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-28 16:16:48.781778
- Title: PrismRAG: Boosting RAG Factuality with Distractor Resilience and Strategized Reasoning
- Title(参考訳): PrismRAG: Distractor Resilience と Strategized Reasoning によるRAG機能向上
- Authors: Mohammad Kachuee, Teja Gollapudi, Minseok Kim, Yin Huang, Kai Sun, Xiao Yang, Jiaqi Wang, Nirav Shah, Yue Liu, Aaron Colak, Anuj Kumar, Wen-tau Yih, Xin Luna Dong,
- Abstract要約: PrismRAGはこのモデルを、イントラクタを意識したQAペアで訓練し、金の証拠と微妙なイントラクタパスを混合する。
LLMを計画し、合理化し、人間工学的な指示に頼らずに合成する推論中心の習慣を取り入れている。
- 参考スコア(独自算出の注目度): 57.89188317734747
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Retrieval-augmented generation (RAG) often falls short when retrieved context includes confusing semi-relevant passages, or when answering questions require deep contextual understanding and reasoning. We propose an efficient fine-tuning framework, called PrismRAG, that (i) trains the model with distractor-aware QA pairs mixing gold evidence with subtle distractor passages, and (ii) instills reasoning-centric habits that make the LLM plan, rationalize, and synthesize without relying on extensive human engineered instructions. Evaluated across 12 open-book RAG QA benchmarks spanning diverse application domains and scenarios, PrismRAG improves average factuality by 5.4%, outperforming state-of-the-art solutions.
- Abstract(参考訳): 検索語拡張生成(RAG)は、検索された文脈が混乱する半関連通路を含む場合や、質問に答える場合には、深い文脈理解と推論を必要とする場合が多い。
我々はPrismRAGと呼ばれる効率的な微調整フレームワークを提案する。
一 微妙な気晴らし通路に金の証拠を混ぜて、気晴らしのあるQAペアで模型を訓練すること。
(ii) LLM計画の立案、合理化、合成を行う理性中心の習慣を、広範囲な人間工学的な指示に頼らずに教える。
さまざまなアプリケーションドメインとシナリオにまたがる12のオープンブックRAG QAベンチマークで評価されたPrismRAGは、平均的な事実性を5.4%改善し、最先端のソリューションを上回っている。
関連論文リスト
- Towards Agentic RAG with Deep Reasoning: A Survey of RAG-Reasoning Systems in LLMs [69.10441885629787]
Retrieval-Augmented Generation (RAG) は、外部知識を注入することによって、Large Language Models (LLM) の事実性を高める。
逆に、純粋に推論指向のアプローチは、しばしば幻覚的あるいは誤った事実を必要とする。
この調査は両鎖を統一的推論-検索の観点から合成する。
論文 参考訳(メタデータ) (2025-07-13T03:29:41Z) - Beyond Independent Passages: Adaptive Passage Combination Retrieval for Retrieval Augmented Open-Domain Question Answering [7.468615741572889]
Adaptive Passage Combination Retrieval (AdaPCR)は、ブラックボックスLMで応答するオープンドメイン質問のための新しいフレームワークである。
AdaPCRは、経路の組み合わせを検索と再ランクのための単位として考慮することで、通路間の依存関係を明示的にモデル化する。
論文 参考訳(メタデータ) (2025-07-05T15:10:12Z) - RAG-Zeval: Towards Robust and Interpretable Evaluation on RAG Responses through End-to-End Rule-Guided Reasoning [64.46921169261852]
RAG-Zevalは、ルール誘導推論タスクとして忠実さと正しさの評価を定式化する、新しいエンドツーエンドフレームワークである。
提案手法は、強化学習による評価者を訓練し、コンパクトなモデルにより包括的および音質評価を生成する。
実験では、RAG-Zevalの優れた性能を示し、人間の判断と最も強い相関性を達成した。
論文 参考訳(メタデータ) (2025-05-28T14:55:33Z) - Credible Plan-Driven RAG Method for Multi-Hop Question Answering [2.5772544412212985]
PDCA(Plan-Do-Check-Act)サイクルにインスパイアされた新しいフレームワークであるPAR-RAG(Plan-then-Act-and-Review RAG)を提案する。
Par-RAGは、現在の質問の意味的な複雑さにマッチした例を選び、複雑さを意識したトップダウンプランニングをガイドする。
二重検証機構は、中間誤差を評価し修正し、推論プロセスが事実上基底のままであることを保証する。
論文 参考訳(メタデータ) (2025-04-23T15:03:17Z) - AlignRAG: Leveraging Critique Learning for Evidence-Sensitive Retrieval-Augmented Reasoning [61.28113271728859]
RAGは知識ベースで大規模言語モデル(LLM)を実現するためのパラダイムとして広く採用されている。
標準的なRAGパイプラインは、モデル推論が取得した証拠と整合性を維持するのに失敗することが多く、事実上の矛盾や否定的な結論につながる。
本研究では,RAGをRetrieval-Augmented Reasoningと解釈し,中心的だが未探索な問題であるtextitReasoning Misalignmentを同定する。
論文 参考訳(メタデータ) (2025-04-21T04:56:47Z) - Self-Routing RAG: Binding Selective Retrieval with Knowledge Verbalization [97.72503890388866]
本稿では,選択的検索と知識の言語化を結合する新しいフレームワークであるSelf-Routing RAG(SR-RAG)を提案する。
SR-RAGは、LLMが外部検索と独自のパラメトリック知識の言語化を動的に決定できるようにする。
近接探索による動的知識源推定を導入し,知識源決定の精度を向上させる。
論文 参考訳(メタデータ) (2025-04-01T17:59:30Z) - Self-RAG: Learning to Retrieve, Generate, and Critique through
Self-Reflection [74.51523859064802]
我々は、自己回帰検索拡張生成(Self-RAG)と呼ばれる新しいフレームワークを導入する。
自己RAGは、検索と自己回帰によってLMの品質と事実性を高める。
様々なタスクセットにおいて、最先端のLCMや検索強化モデルよりも大幅に優れています。
論文 参考訳(メタデータ) (2023-10-17T18:18:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。