論文の概要: Injecting External Knowledge into the Reasoning Process Enhances Retrieval-Augmented Generation
- arxiv url: http://arxiv.org/abs/2507.19333v1
- Date: Fri, 25 Jul 2025 14:43:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-28 16:16:48.999162
- Title: Injecting External Knowledge into the Reasoning Process Enhances Retrieval-Augmented Generation
- Title(参考訳): 推論プロセスに外部知識を注入することで検索・拡張生成が促進される
- Authors: Minghao Tang, Shiyu Ni, Jiafeng Guo, Keping Bi,
- Abstract要約: Retrieval-augmented Generation (RAG)は、大規模言語モデル(LLM)を知識集約タスクの外部知識で拡張するために広く採用されている。
RAGの有効性は、しばしばノイズ(低品質)の回復経路の存在によって損なわれる。
本稿では,RAGの雑音に対する認識・抵抗能力を高めるため,パッセージインジェクションを提案する。
- 参考スコア(独自算出の注目度): 26.1953598254707
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Retrieval-augmented generation (RAG) has been widely adopted to augment large language models (LLMs) with external knowledge for knowledge-intensive tasks. However, its effectiveness is often undermined by the presence of noisy (i.e., low-quality) retrieved passages. Enhancing LLMs' robustness to such noise is critical for improving the reliability of RAG systems. Recent advances have equipped LLMs with strong reasoning and self-reflection capabilities, allowing them to identify and correct errors in their reasoning process. Inspired by this ability, we propose Passage Injection-a simple yet effective method that explicitly incorporates retrieved passages into LLMs' reasoning process, aiming to enhance the model's ability to recognize and resist noisy passages. We validate Passage Injection under general RAG settings using BM25 as the retriever. Experiments on four reasoning-enhanced LLMs across four factual QA datasets demonstrate that Passage Injection significantly improves overall RAG performance. Further analysis on two noisy retrieval settings-random noise, where the model is provided irrelevant passages, and counterfactual noise, where it is given misleading passages-shows that Passage Injection consistently improves robustness. Controlled experiments confirm that Passage Injection can also effectively leverage helpful passages. These findings suggest that incorporating passages in LLMs' reasoning process is a promising direction for building more robust RAG systems. The code can be found \href{here}{https://github.com/mh-tang/Passage-Injection}.
- Abstract(参考訳): Retrieval-augmented Generation (RAG) は、大規模言語モデル(LLM)を知識集約タスクの外部知識で拡張するために広く採用されている。
しかし、その効果は、しばしばノイズ(低品質)の回復経路の存在によって損なわれる。
このような騒音に対するLLMの堅牢性向上は、RAGシステムの信頼性向上に不可欠である。
近年の進歩はLSMに強力な推論と自己回帰機能を備えており、推論過程における誤りを識別し、修正することができる。
この能力に触発されたPassage Injectionは,検索したパスをLLMの推論プロセスに明示的に組み込むシンプルで効果的な手法であり,ノイズのあるパスを認識し,抵抗するモデルの能力を高めることを目的としている。
一般RAG設定下でのパッセージインジェクションをBM25を用いて検証した。
4つの実数QAデータセットにわたる4つの推論強化LDMの実験により、Passage Injectionは全体的なRAG性能を大幅に改善することが示された。
モデルに無関係な経路が設けられるノイズと、逆ファクトノイズの2つのノイズのさらなる分析により、パッセージ・インジェクションが一貫してロバスト性を改善することを示す誤った経路が与えられる。
制御された実験は、パッセージインジェクションが有用なパスを効果的に活用できることを確認した。
これらの結果から, LLMの推論過程に経路を組み込むことが, より堅牢なRAGシステム構築に有望な方向であることが示唆された。
コードは \href{here}{https://github.com/mh-tang/Passage-Injection} で参照できる。
関連論文リスト
- PrismRAG: Boosting RAG Factuality with Distractor Resilience and Strategized Reasoning [57.89188317734747]
PrismRAGはこのモデルを、イントラクタを意識したQAペアで訓練し、金の証拠と微妙なイントラクタパスを混合する。
LLMを計画し、合理化し、人間工学的な指示に頼らずに合成する推論中心の習慣を取り入れている。
論文 参考訳(メタデータ) (2025-07-25T00:15:31Z) - Learning to Extract Rational Evidence via Reinforcement Learning for Retrieval-Augmented Generation [37.47571308389908]
Retrieval-Augmented Generation (RAG) はLarge Language Models (LLM) の精度を効果的に向上させる
従来手法では、明確な思考を伴わずに証拠を直接抽出し、重要な手がかりをフィルタリングし、一般化に苦慮する危険性がある。
まず,(1)検索内容中の潜在的手がかりを明示的に推論し,(2)質問に答えるのに役立つ重要な手がかりを省くために意識的に抽出することによる合理的証拠の抽出を学習するLEARを提案する。
論文 参考訳(メタデータ) (2025-07-21T13:03:55Z) - GainRAG: Preference Alignment in Retrieval-Augmented Generation through Gain Signal Synthesis [30.185213495829164]
Retrieval-Augmented Generation (RAG)フレームワークは、検索モジュールを導入し、検索された情報を大きな言語モデル(LLM)の入力コンテキストに動的に注入する。
提案手法は,入力パスが正しい出力にどの程度寄与するかを計測する新たな指標である「ゲイン」を定義することで,レトリバーとLLMの好みを整合させる新しい手法であるGainRAGを提案する。
実験結果はGainRAGの有効性を6つのデータセットで検証した。
論文 参考訳(メタデータ) (2025-05-24T14:14:57Z) - The Distracting Effect: Understanding Irrelevant Passages in RAG [8.882885336338205]
我々は、RAGシステムを改善するために、ハードトラベリングパスを特定し、使用します。
従来のRAGデータセットで微調整されたものに比べて解答精度は最大で7.5%向上する。
コントリビューションは2つある: まず、無関係な通路の単純な二分分類を超えて、完全に無関係な通路と気晴らしのどちらか、そして第二に、困難に気晴らしする通路を見つけるための複数の方法を開発し、分析する。
論文 参考訳(メタデータ) (2025-05-11T09:25:05Z) - Self-Routing RAG: Binding Selective Retrieval with Knowledge Verbalization [97.72503890388866]
本稿では,選択的検索と知識の言語化を結合する新しいフレームワークであるSelf-Routing RAG(SR-RAG)を提案する。
SR-RAGは、LLMが外部検索と独自のパラメトリック知識の言語化を動的に決定できるようにする。
近接探索による動的知識源推定を導入し,知識源決定の精度を向上させる。
論文 参考訳(メタデータ) (2025-04-01T17:59:30Z) - Agentic Verification for Ambiguous Query Disambiguation [42.238086712267396]
本稿では,検索拡張世代(RAG)における問合せの曖昧化という課題に対処する。
本稿では,早期にレシーバとジェネレータからのフィードバックを取り入れて,ダイバーシフィケーションと検証を一体化するための共同手法を提案する。
広く採用されているASQAベンチマークにおいて,本手法の有効性と有効性を検証し,多種多様かつ検証可能な解釈を実現する。
論文 参考訳(メタデータ) (2025-02-14T18:31:39Z) - DeepRAG: Thinking to Retrieve Step by Step for Large Language Models [92.87532210660456]
我々はマルコフ決定過程(MDP)として検索強化推論をモデル化するDeepRAGを提案する。
クエリを反復的に分解することで、DeepRAGは外部知識を取得するか、あるいは各ステップでパラメトリック推論に依存するかを動的に決定する。
実験の結果,DeepRAGは検索効率を向上し,回答精度を26.4%向上させ,検索強化推論の有効性を示した。
論文 参考訳(メタデータ) (2025-02-03T08:22:45Z) - Towards More Robust Retrieval-Augmented Generation: Evaluating RAG Under Adversarial Poisoning Attacks [45.07581174558107]
Retrieval-Augmented Generation (RAG) システムは幻覚を緩和するための有望な解決策として登場した。
RAGシステムは、検索コーパスに注入された悪意のある通路が、モデルに誤った結果をもたらす可能性がある、敵の毒殺攻撃に対して脆弱である。
本稿では、RAGシステムがこのような攻撃下でどのように振る舞うか、その堅牢性がどのように改善されるかについて、厳密に制御された実証研究を示す。
論文 参考訳(メタデータ) (2024-12-21T17:31:52Z) - Exploring Automatic Cryptographic API Misuse Detection in the Era of LLMs [60.32717556756674]
本稿では,暗号誤用の検出において,大規模言語モデルを評価するための体系的評価フレームワークを提案する。
11,940個のLCM生成レポートを詳細に分析したところ、LSMに固有の不安定性は、報告の半数以上が偽陽性になる可能性があることがわかった。
最適化されたアプローチは、従来の手法を超え、確立されたベンチマークでこれまで知られていなかった誤用を明らかにすることで、90%近い顕著な検出率を達成する。
論文 参考訳(メタデータ) (2024-07-23T15:31:26Z) - Speculative RAG: Enhancing Retrieval Augmented Generation through Drafting [68.90949377014742]
Speculative RAG(投機的RAG)は、より大規模なジェネラリストLMを利用して、より小さな蒸留専門のLMによって並列に生成された複数のRAGドラフトを効率よく検証するフレームワークである。
提案手法は,より小さな専門家のLMにドラフト作成を委譲することでRAGを加速し,より大きなジェネラリストのLMがドラフトに1回の検証パスを実行する。
PubHealthの従来のRAGシステムと比較して、レイテンシを50.83%削減しながら、最大12.97%の精度向上を実現している。
論文 参考訳(メタデータ) (2024-07-11T06:50:19Z) - Prompt Perturbation in Retrieval-Augmented Generation based Large Language Models [9.688626139309013]
Retrieval-Augmented Generationは、大規模言語モデルからテキスト生成の信頼性を向上させる手段として考えられている。
本研究では,プロンプトに短い接頭辞を挿入しても,実際の正解から遠く離れたアウトプットを生成することを発見した。
グラディエントガイドプロンプト摂動法(Gradient Guided Prompt Perturbation)と呼ばれる新しい最適化手法を提案する。
論文 参考訳(メタデータ) (2024-02-11T12:25:41Z) - Self-RAG: Learning to Retrieve, Generate, and Critique through
Self-Reflection [74.51523859064802]
我々は、自己回帰検索拡張生成(Self-RAG)と呼ばれる新しいフレームワークを導入する。
自己RAGは、検索と自己回帰によってLMの品質と事実性を高める。
様々なタスクセットにおいて、最先端のLCMや検索強化モデルよりも大幅に優れています。
論文 参考訳(メタデータ) (2023-10-17T18:18:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。