論文の概要: Structure-Augmented Reasoning Generation
- arxiv url: http://arxiv.org/abs/2506.08364v3
- Date: Mon, 11 Aug 2025 03:38:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 16:55:53.155238
- Title: Structure-Augmented Reasoning Generation
- Title(参考訳): 構造強化型推論生成
- Authors: Jash Rajesh Parekh, Pengcheng Jiang, Jiawei Han,
- Abstract要約: Retrieval-Augmented Generation (RAG) システムは、構造化されていない文書コレクションから情報を暗黙的に接続するために、大きな言語モデルに依存するため、複雑なマルチホップ推論では失敗する。
この基本的な制限は、コヒーレントな推論連鎖を可能にする複雑な関係を認識するのではなく、検索された通路を独立した文脈として扱うことに起因している。
SARGは検索後のフレームワークであり、明示的な推論構造を具体化して従来のRAGパイプラインを変換する。
- 参考スコア(独自算出の注目度): 23.587337743113228
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Retrieval-Augmented Generation (RAG) systems fail at complex multi-hop reasoning because they rely on large language models to implicitly connect information from unstructured document collections. This fundamental limitation stems from treating retrieved passages as independent context rather than recognizing the intricate relationships that enable coherent reasoning chains. We introduce SARG (Structure-Augmented Reasoning Generation), a post-retrieval framework that transforms traditional RAG pipelines by materializing explicit reasoning structures. SARG extracts {cause, relation, effect} triples from retrieved documents, constructs domain-adaptive graphs, and performs multi-hop traversal to discover reasoning chains that bridge query concepts to answers. Unlike existing approaches that modify retrieval mechanisms, SARG operates as a plug-and-play reasoning layer compatible with any RAG system. Extensive evaluation across diverse domains: general QA, biomedical literature, and financial analysis demonstrates that SARG achieves substantial improvements over state-of-the-art RAG baselines. Crucially, SARG also provides full reasoning traceability through explicit inference chains, addressing the critical interpretability gap in current RAG systems. Our results establish that explicit structural reasoning is not merely beneficial but essential for reliable complex question answering, offering a solution to RAG's implicit reasoning bottleneck.
- Abstract(参考訳): Retrieval-Augmented Generation (RAG) システムは、構造化されていない文書コレクションから情報を暗黙的に接続するために、大きな言語モデルに依存するため、複雑なマルチホップ推論では失敗する。
この基本的な制限は、コヒーレントな推論連鎖を可能にする複雑な関係を認識するのではなく、検索された通路を独立した文脈として扱うことに起因している。
SARG(Structure-Augmented Reasoning Generation)は,論理的推論構造を具体化して従来のRAGパイプラインを変換するフレームワークである。
SARGは、取得した文書から { cause, relation, effect} を抽出し、ドメイン適応グラフを構築し、クエリの概念を答えにブリッジする推論チェーンを見つけるためにマルチホップトラバーサルを実行する。
検索機構を変更する既存のアプローチとは異なり、SARGは任意のRAGシステムと互換性のあるプラグアンドプレイ推論層として動作する。
一般のQA, 生物医学文献, 財務分析など多種多様な分野にわたる広範な評価は, SARGが最先端のRAGベースラインよりも大幅に改善したことを示している。
重要なことに、SARGは明示的な推論連鎖を通して完全な推論トレーサビリティを提供し、現在のRAGシステムにおける重要な解釈可能性ギャップに対処する。
以上の結果から,RAGの暗黙的推論ボトルネックに対する解決法として,明示的な構造的推論が有用であるだけでなく,信頼性の高い複雑な質問応答に不可欠であることが確認された。
関連論文リスト
- Towards Agentic RAG with Deep Reasoning: A Survey of RAG-Reasoning Systems in LLMs [69.10441885629787]
Retrieval-Augmented Generation (RAG) は、外部知識を注入することによって、Large Language Models (LLM) の事実性を高める。
逆に、純粋に推論指向のアプローチは、しばしば幻覚的あるいは誤った事実を必要とする。
この調査は両鎖を統一的推論-検索の観点から合成する。
論文 参考訳(メタデータ) (2025-07-13T03:29:41Z) - Inference Scaled GraphRAG: Improving Multi Hop Question Answering on Knowledge Graphs [15.036480111358369]
大きな言語モデル(LLM)は、言語理解と生成において印象的な能力を達成した。
構造化コンテキストやマルチホップ情報へのアクセスが限られているため、知識集約的推論タスクではパフォーマンスが低下し続けています。
Inference-Scaled GraphRAGは、推論時間計算のスケーリングを適用してLLMベースのグラフ推論を強化する新しいフレームワークである。
論文 参考訳(メタデータ) (2025-06-24T19:31:03Z) - Learning Efficient and Generalizable Graph Retriever for Knowledge-Graph Question Answering [75.12322966980003]
大規模言語モデル(LLM)は、様々な領域にわたって強い帰納的推論能力を示している。
既存のRAGパイプラインのほとんどは非構造化テキストに依存しており、解釈可能性と構造化推論を制限する。
近年,知識グラフ解答のための知識グラフとLLMの統合について検討している。
KGQAにおける効率的なグラフ検索のための新しいフレームワークであるRAPLを提案する。
論文 参考訳(メタデータ) (2025-06-11T12:03:52Z) - Reasoning with RAGged events: RAG-Enhanced Event Knowledge Base Construction and reasoning with proof-assistants [0.9790236766474201]
本稿では,複数のLPMを用いた過去のイベントの自動抽出モデルを提案する。
我々はトゥキディデスの史料を用いて評価を行う。
抽出されたRDF表現をCoq証明アシスタント仕様に変換する自動翻訳パイプラインを開発した。
論文 参考訳(メタデータ) (2025-06-08T08:36:14Z) - KAQG: A Knowledge-Graph-Enhanced RAG for Difficulty-Controlled Question Generation [0.0]
KAQGがRetrieval-Augmented Generation(RAG)に決定的なブレークスルーを導入
これは、透明な多段階推論ときめ細かい認知難易度制御という、現在のパイプラインの2つの慢性的な弱点に対処する。
技術的には、このフレームワークは知識グラフ、RAG検索、教育評価理論を単一のパイプラインに融合する。
論文 参考訳(メタデータ) (2025-05-12T14:42:19Z) - AlignRAG: Leveraging Critique Learning for Evidence-Sensitive Retrieval-Augmented Reasoning [61.28113271728859]
RAGは知識ベースで大規模言語モデル(LLM)を実現するためのパラダイムとして広く採用されている。
標準的なRAGパイプラインは、モデル推論が取得した証拠と整合性を維持するのに失敗することが多く、事実上の矛盾や否定的な結論につながる。
本研究では,RAGをRetrieval-Augmented Reasoningと解釈し,中心的だが未探索な問題であるtextitReasoning Misalignmentを同定する。
論文 参考訳(メタデータ) (2025-04-21T04:56:47Z) - CDF-RAG: Causal Dynamic Feedback for Adaptive Retrieval-Augmented Generation [3.8808821719659763]
適応検索拡張生成(CDF-RAG)のための因果動的フィードバックを導入する。
CDF-RAGは、クエリを反復的に洗練し、構造化因果グラフを検索し、相互接続された知識ソース間のマルチホップ因果推論を可能にする。
我々は,CDF-RAGを4つの多様なデータセット上で評価し,既存のRAG法よりも応答精度と因果正性を向上させる能力を示した。
論文 参考訳(メタデータ) (2025-04-17T01:15:13Z) - CausalRAG: Integrating Causal Graphs into Retrieval-Augmented Generation [11.265999775635823]
CausalRAGは因果グラフを検索プロセスに組み込む新しいフレームワークである。
因果関係の構築と追跡により、CausalRAGは文脈連続性を保ち、検索精度を向上させる。
本研究は,因果推論における接地探索が,知識集約型タスクに有望なアプローチをもたらすことを示唆している。
論文 参考訳(メタデータ) (2025-03-25T17:43:08Z) - Chain-of-Retrieval Augmented Generation [72.06205327186069]
本稿では,o1-like RAGモデルを学習し,最終回答を生成する前に段階的に関連情報を抽出・推論する手法を提案する。
提案手法であるCoRAGは,進化状態に基づいて動的にクエリを再構成する。
論文 参考訳(メタデータ) (2025-01-24T09:12:52Z) - Causality is all you need [63.10680366545293]
因果グラフルーティング(Causal Graph Routing, CGR)は、データに隠された原因影響力を明らかにするための介入機構を完全に依存した統合因果スキームである。
CGRは、Visual Question AnswerとLong Document Classificationタスクの両方において、最先端のメソッドを超越することができる。
論文 参考訳(メタデータ) (2023-11-21T02:53:40Z) - Effect Identification in Cluster Causal Diagrams [51.42809552422494]
クラスタ因果図(略してC-DAG)と呼ばれる新しいタイプのグラフィカルモデルを導入する。
C-DAGは、限定された事前知識に基づいて変数間の関係を部分的に定義することができる。
我々はC-DAGに対する因果推論のための基礎と機械を開発する。
論文 参考訳(メタデータ) (2022-02-22T21:27:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。