論文の概要: Pruning Minimal Reasoning Graphs for Efficient Retrieval-Augmented Generation
- arxiv url: http://arxiv.org/abs/2602.04926v1
- Date: Wed, 04 Feb 2026 08:48:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:08.548965
- Title: Pruning Minimal Reasoning Graphs for Efficient Retrieval-Augmented Generation
- Title(参考訳): 効率的な検索拡張生成のための最小推論グラフの更新
- Authors: Ning Wang, Kuanyan Zhu, Daniel Yuehwoon Yee, Yitang Gao, Shiying Huang, Zirun Xu, Sainyam Galhotra,
- Abstract要約: グラフスタイルのRAGシステムであるAutoPrunedRetrieverについて述べる。
AutoPrunedRetrieverは、エンティティとリレーションをコンパクトなIDインデックス付きコードブックに格納し、質問、事実、回答をエッジシーケンスとして表現する。
難易度とテレビのベンチマークでは、AutoPrunedRetrieverが再びランクインし、グラフの多いベースラインよりも2桁もトークンを減らした。
- 参考スコア(独自算出の注目度): 7.922207753581737
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Retrieval-augmented generation (RAG) is now standard for knowledge-intensive LLM tasks, but most systems still treat every query as fresh, repeatedly re-retrieving long passages and re-reasoning from scratch, inflating tokens, latency, and cost. We present AutoPrunedRetriever, a graph-style RAG system that persists the minimal reasoning subgraph built for earlier questions and incrementally extends it for later ones. AutoPrunedRetriever stores entities and relations in a compact, ID-indexed codebook and represents questions, facts, and answers as edge sequences, enabling retrieval and prompting over symbolic structure instead of raw text. To keep the graph compact, we apply a two-layer consolidation policy (fast ANN/KNN alias detection plus selective $k$-means once a memory threshold is reached) and prune low-value structure, while prompts retain only overlap representatives and genuinely new evidence. We instantiate two front ends: AutoPrunedRetriever-REBEL, which uses REBEL as a triplet parser, and AutoPrunedRetriever-llm, which swaps in an LLM extractor. On GraphRAG-Benchmark (Medical and Novel), both variants achieve state-of-the-art complex reasoning accuracy, improving over HippoRAG2 by roughly 9--11 points, and remain competitive on contextual summarize and generation. On our harder STEM and TV benchmarks, AutoPrunedRetriever again ranks first, while using up to two orders of magnitude fewer tokens than graph-heavy baselines, making it a practical substrate for long-running sessions, evolving corpora, and multi-agent pipelines.
- Abstract(参考訳): Retrieval-augmented Generation (RAG) は現在、知識集約型 LLM タスクの標準となっているが、ほとんどのシステムは、すべてのクエリを新しい、繰り返し再検索する長いパス、スクラッチからの再推論、トークンの膨らみ、レイテンシ、コストとして扱う。
グラフスタイルのRAGシステムであるAutoPrunedRetrieverについて述べる。
AutoPrunedRetrieverは、エンティティとリレーションをコンパクトなIDインデックス付きコードブックに格納し、質問、事実、回答をエッジシーケンスとして表現し、原文の代わりにシンボル構造を検索し、プロンプトする。
グラフをコンパクトに保つために、2層統合ポリシー(高速ANN/KNNエイリアス検出とメモリしきい値に達すると選択$k$-means)とプルー低値構造を適用し、重なり合う代表と真に新しい証拠のみを保持する。
3重項パーサとしてREBELを使用するAutoPrunedRetriever-REBELと、LLM抽出器でスワップするAutoPrunedRetriever-llmの2つのフロントエンドをインスタンス化する。
GraphRAG-Benchmark(医学とノベル)では、どちらの変種も最先端の複雑な推論精度を達成し、HippoRAG2を約9-11ポイント改善し、文脈の要約と生成に競争力を維持する。
より厳しいSTEMとTVベンチマークでは、AutoPrunedRetrieverが最初にランク付けし、グラフの多いベースラインよりも最大2桁少ないトークンを使用して、長時間のセッション、コーパスの進化、マルチエージェントパイプラインの実践的な基盤を作りました。
関連論文リスト
- Evaluating Retrieval-Augmented Generation Systems on Unanswerable, Uncheatable, Realistic, Multi-hop Queries [53.99620546358492]
実世界のユースケースでは、複雑なクエリを持つRAGシステムが存在し、関連する情報がコーパスから欠落したり、不完全であったりすることが多い。
既存のRAGベンチマークは、マルチホップやスコープ外の質問に対して、現実的なタスクの複雑さを反映することはめったにない。
un$underlinec$heatable, $underliner$ealistic, $underlineu$nanswerable, $underlinem$ulti-hopの自動生成のための最初のパイプラインを提示する。
論文 参考訳(メタデータ) (2025-10-13T21:38:04Z) - EraRAG: Efficient and Incremental Retrieval Augmented Generation for Growing Corpora [20.890240791042302]
グラフベースのRetrieval-Augmented Generation (Graph-RAG)は、外部コーパス上の検索を構造化することにより、大きな言語モデル(LLM)を強化する。
高速でスケーラブルな動的更新をサポートする新しい多層グラフ-RAGフレームワークであるEraRAGを紹介する。
提案手法は,超平面に基づく局所性感性ハッシュ(LSH)を利用して,元のコーパスを階層グラフ構造に分割,整理する。
論文 参考訳(メタデータ) (2025-06-26T03:01:33Z) - Respecting Temporal-Causal Consistency: Entity-Event Knowledge Graphs for Retrieval-Augmented Generation [69.45495166424642]
我々は,物語文書における時間的,因果的,文字的整合性を理解するために,頑健で差別的なQAベンチマークを開発する。
次に、バイナリマッピングでリンクされたエンティティとイベントのサブグラフを分離したまま保持するデュアルグラフフレームワークであるEntity-Event RAG(E2RAG)を紹介します。
ChronoQA全体で、我々のアプローチは最先端の非構造化およびKGベースのRAGベースラインよりも優れており、因果一貫性クエリや文字整合性クエリが顕著である。
論文 参考訳(メタデータ) (2025-06-06T10:07:21Z) - Stronger Baselines for Retrieval-Augmented Generation with Long-Context Language Models [38.17736879002141]
我々は、DOS RAG(Document's Original Structure RAG)を含む3つのベースラインに対して、最近の2つのマルチステージパイプライン、ReadAgentとRAPTORを比較した。
DOS RAG は、複数の長期コンテキスト QA ベンチマークにおいて、より複雑なメソッドを一貫してマッチングまたは上回る。
我々は、DOS RAGを、将来のRAG評価のための単純かつ強力なベースラインとして確立することを推奨する。
論文 参考訳(メタデータ) (2025-06-04T14:16:28Z) - Align-GRAG: Reasoning-Guided Dual Alignment for Graph Retrieval-Augmented Generation [79.75818239774952]
大きな言語モデル(LLM)は目覚ましい能力を示しているが、幻覚や時代遅れの情報といった問題に苦戦している。
Retrieval-augmented Generation (RAG) は、情報検索システム(IR)を用いて、外部知識のLLM出力を基底にすることで、これらの問題に対処する。
本稿では、検索後句における新しい推論誘導二重アライメントフレームワークであるAlign-GRAGを提案する。
論文 参考訳(メタデータ) (2025-05-22T05:15:27Z) - Divide by Question, Conquer by Agent: SPLIT-RAG with Question-Driven Graph Partitioning [62.640169289390535]
SPLIT-RAGは、質問駆動セマンティックグラフ分割と協調サブグラフ検索による制限に対処するマルチエージェントRAGフレームワークである。
革新的なフレームワークは、まずリンク情報のセマンティック分割を作成し、次にタイプ特化知識ベースを使用してマルチエージェントRAGを実現する。
属性対応グラフセグメンテーションは、知識グラフを意味的に一貫性のあるサブグラフに分割し、サブグラフが異なるクエリタイプと整合することを保証する。
階層的なマージモジュールは、論理的検証を通じて、部分グラフ由来の解答間の矛盾を解消する。
論文 参考訳(メタデータ) (2025-05-20T06:44:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。