論文の概要: PropRAG: Guiding Retrieval with Beam Search over Proposition Paths
- arxiv url: http://arxiv.org/abs/2504.18070v1
- Date: Fri, 25 Apr 2025 04:47:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:53.642945
- Title: PropRAG: Guiding Retrieval with Beam Search over Proposition Paths
- Title(参考訳): PropRAG: 提案経路上のビームサーチによる検索誘導
- Authors: Jingjin Wang,
- Abstract要約: PropRAGは、文脈的に豊かな命題と提案経路上の新しいビーム探索アルゴリズムを活用するフレームワークである。
PropRAGのオンライン検索プロセスは、生成する大規模言語モデルを呼び出すことなく完全に動作する。
PropRAGは、PopQA (55.3%)、2Wiki (93.7%)、2HotpotQA (97.0%)、MuSiQue (77.3%)で最先端のゼロショットリコール@5結果を達成する。
- 参考スコア(独自算出の注目度): 2.548569570955189
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Retrieval Augmented Generation (RAG) has become the standard non-parametric approach for equipping Large Language Models (LLMs) with up-to-date knowledge and mitigating catastrophic forgetting common in continual learning. However, standard RAG, relying on independent passage retrieval, fails to capture the interconnected nature of human memory crucial for complex reasoning (associativity) and contextual understanding (sense-making). While structured RAG methods like HippoRAG utilize knowledge graphs (KGs) built from triples, the inherent context loss limits fidelity. We introduce PropRAG, a framework leveraging contextually rich propositions and a novel beam search algorithm over proposition paths to explicitly discover multi-step reasoning chains. Crucially, PropRAG's online retrieval process operates entirely without invoking generative LLMs, relying instead on efficient graph traversal and pre-computed embeddings. This avoids online LLM inference costs and potential inconsistencies during evidence gathering. LLMs are used effectively offline for high-quality proposition extraction and post-retrieval for answer generation. PropRAG achieves state-of-the-art zero-shot Recall@5 results on PopQA (55.3%), 2Wiki (93.7%), HotpotQA (97.0%), and MuSiQue (77.3%), alongside top F1 scores (e.g., 52.4% on MuSiQue). By improving evidence retrieval through richer representation and explicit, LLM-free online path finding, PropRAG advances non-parametric continual learning.
- Abstract(参考訳): Retrieval Augmented Generation (RAG) は、Large Language Models (LLM) を最新の知識で装備し、継続的な学習に共通する破滅的な忘れを軽減するための標準の非パラメトリックアプローチとなっている。
しかし、標準的なRAGは独立した経路探索に依存しており、複雑な推論(連想性)と文脈的理解(センスメイキング)に欠かせない人間の記憶の相互接続の性質を捉えていない。
HippoRAGのような構造化RAG手法は三重項から構築された知識グラフ(KG)を利用するが、固有の文脈損失は忠実さを制限する。
本稿では,多段階推論連鎖を明示的に発見するために,文脈的にリッチな命題と提案経路上の新しいビーム探索アルゴリズムを利用するフレームワークであるPropRAGを紹介する。
重要なことに、PropRAGのオンライン検索プロセスはジェネレーティブLLMを起動することなく完全に動作し、代わりに効率的なグラフトラバーサルとプリ計算された埋め込みに依存している。
これにより、エビデンス収集におけるオンラインLLM推論コストと潜在的な不整合を回避することができる。
LLMは、高品質な命題抽出や解答生成後の検索に効果的にオフラインで使用される。
PropRAGは、PopQA (55.3%)、2Wiki (93.7%)、2HotpotQA (97.0%)、MuSiQue (77.3%)、そしてトップF1スコア(例えば、MuSiQueの52.4%)で、最先端のゼロショットリコール@5結果を達成する。
より豊かな表現と明示的な LLM のないオンラインパス探索によるエビデンス検索の改善により、PropRAG は非パラメトリック連続学習を推進している。
関連論文リスト
- AlignRAG: An Adaptable Framework for Resolving Misalignments in Retrieval-Aware Reasoning of RAG [61.28113271728859]
Retrieval-augmented Generation (RAG) は知識基底テキスト生成の基礎パラダイムとして登場した。
既存のRAGパイプラインは、しばしば、推論軌跡が、検索されたコンテンツによって課される明らかな制約と一致しないことを保証するのに失敗する。
そこで我々は,反復的批判駆動アライメントステップによる推論ミスアライメントを緩和する新しいテストタイムフレームワークであるAlignRAGを提案する。
論文 参考訳(メタデータ) (2025-04-21T04:56:47Z) - Self-Routing RAG: Binding Selective Retrieval with Knowledge Verbalization [97.72503890388866]
本稿では,選択的検索と知識の言語化を結合する新しいフレームワークであるSelf-Routing RAG(SR-RAG)を提案する。
SR-RAGは、LLMが外部検索と独自のパラメトリック知識の言語化を動的に決定できるようにする。
近接探索による動的知識源推定を導入し,知識源決定の精度を向上させる。
論文 参考訳(メタデータ) (2025-04-01T17:59:30Z) - HopRAG: Multi-Hop Reasoning for Logic-Aware Retrieval-Augmented Generation [28.69822159828129]
論理的推論による検索を強化する新しいRAGフレームワークであるHopRAGを提案する。
インデックス作成中にHopRAGは、テキストチャンクを頂点とし、LLM生成した擬似クエリをエッジとして確立した論理接続をエッジとして、パスグラフを構築する。
検索中は、語彙的または意味論的に類似した通路から始まる、検索・推論・帰属機構を用いる。
実験では、HopRAGの優位性が示され、76.78%の回答精度、65.07%の検索F1スコアが従来の方法よりも向上した。
論文 参考訳(メタデータ) (2025-02-18T02:24:42Z) - LaRA: Benchmarking Retrieval-Augmented Generation and Long-Context LLMs -- No Silver Bullet for LC or RAG Routing [70.35888047551643]
本稿では,RAGとLC LLMを厳格に比較するための新しいベンチマークであるLaRAを提案する。
LaRAは4つのQAタスクカテゴリと3種類の自然発生長文の2326のテストケースを含んでいる。
RAGとLCの最適選択は,モデルのパラメータサイズ,長文機能,コンテキスト長,タスクタイプ,取得したチャンクの特性など,複雑な相互作用に依存する。
論文 参考訳(メタデータ) (2025-02-14T08:04:22Z) - DeepRAG: Thinking to Retrieval Step by Step for Large Language Models [92.87532210660456]
我々はマルコフ決定過程(MDP)として検索強化推論をモデル化するDeepRAGを提案する。
クエリを反復的に分解することで、DeepRAGは外部知識を取得するか、あるいは各ステップでパラメトリック推論に依存するかを動的に決定する。
実験の結果、DeepRAGは解答精度を21.99%向上させ、検索強化推論の最適化の有効性を示した。
論文 参考訳(メタデータ) (2025-02-03T08:22:45Z) - SFR-RAG: Towards Contextually Faithful LLMs [57.666165819196486]
Retrieval Augmented Generation (RAG) は、外部コンテキスト情報を大言語モデル(LLM)と統合し、事実の精度と妥当性を高めるパラダイムである。
SFR-RAG(SFR-RAG)について述べる。
また、複数の人気かつ多様なRAGベンチマークをコンパイルする新しい評価フレームワークであるConBenchについても紹介する。
論文 参考訳(メタデータ) (2024-09-16T01:08:18Z) - W-RAG: Weakly Supervised Dense Retrieval in RAG for Open-domain Question Answering [28.79851078451609]
W-RAGは、下流タスクから弱いトレーニング信号を抽出し、検索者がタスクに最も利益をもたらすパスを優先順位付けするように微調整する手法である。
我々は4つの公開可能なOpenQAデータセットの包括的な実験を行い、我々のアプローチが検索とOpenQAのパフォーマンスを向上させることを実証した。
論文 参考訳(メタデータ) (2024-08-15T22:34:44Z) - Prompt Perturbation in Retrieval-Augmented Generation based Large Language Models [9.688626139309013]
Retrieval-Augmented Generationは、大規模言語モデルからテキスト生成の信頼性を向上させる手段として考えられている。
本研究では,プロンプトに短い接頭辞を挿入しても,実際の正解から遠く離れたアウトプットを生成することを発見した。
グラディエントガイドプロンプト摂動法(Gradient Guided Prompt Perturbation)と呼ばれる新しい最適化手法を提案する。
論文 参考訳(メタデータ) (2024-02-11T12:25:41Z) - Self-RAG: Learning to Retrieve, Generate, and Critique through
Self-Reflection [74.51523859064802]
我々は、自己回帰検索拡張生成(Self-RAG)と呼ばれる新しいフレームワークを導入する。
自己RAGは、検索と自己回帰によってLMの品質と事実性を高める。
様々なタスクセットにおいて、最先端のLCMや検索強化モデルよりも大幅に優れています。
論文 参考訳(メタデータ) (2023-10-17T18:18:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。