論文の概要: MIRAGE: Scaling Test-Time Inference with Parallel Graph-Retrieval-Augmented Reasoning Chains
- arxiv url: http://arxiv.org/abs/2508.18260v1
- Date: Mon, 25 Aug 2025 17:53:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.903655
- Title: MIRAGE: Scaling Test-Time Inference with Parallel Graph-Retrieval-Augmented Reasoning Chains
- Title(参考訳): MIRAGE: 並列グラフ検索拡張型推論チェーンによるテスト時間推論のスケーリング
- Authors: Kaiwen Wei, Rui Shan, Dongsheng Zou, Jianzhong Yang, Bi Zhao, Junnan Zhu, Jiang Zhong,
- Abstract要約: MIRAGE(Multi-chain Inference with Retrieval-Augmented Graph Exploration)は、テスト時のスケーラブルな推論フレームワークである。
構造化された医療知識グラフに対する動的マルチチェーン推論を実行する。
自動評価と人的評価の両方において、GPT-4o、Tree-of-Thought、その他の検索強化ベースラインを一貫して上回っている。
- 参考スコア(独自算出の注目度): 19.018680886214035
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large reasoning models (LRMs) have shown significant progress in test-time scaling through chain-of-thought prompting. Current approaches like search-o1 integrate retrieval augmented generation (RAG) into multi-step reasoning processes but rely on a single, linear reasoning chain while incorporating unstructured textual information in a flat, context-agnostic manner. As a result, these approaches can lead to error accumulation throughout the reasoning chain, which significantly limits its effectiveness in medical question-answering (QA) tasks where both accuracy and traceability are critical requirements. To address these challenges, we propose MIRAGE (Multi-chain Inference with Retrieval-Augmented Graph Exploration), a novel test-time scalable reasoning framework that performs dynamic multi-chain inference over structured medical knowledge graphs. Specifically, MIRAGE 1) decomposes complex queries into entity-grounded sub-questions, 2) executes parallel inference chains, 3) retrieves evidence adaptively via neighbor expansion and multi-hop traversal, and 4) integrates answers using cross-chain verification to resolve contradictions. Experiments on three medical QA benchmarks (GenMedGPT-5k, CMCQA, and ExplainCPE) show that MIRAGE consistently outperforms GPT-4o, Tree-of-Thought variants, and other retrieval-augmented baselines in both automatic and human evaluations. Additionally, MIRAGE improves interpretability by generating explicit reasoning chains that trace each factual claim to concrete chains within the knowledge graph, making it well-suited for complex medical reasoning scenarios. The code will be available for further research.
- Abstract(参考訳): 大規模推論モデル(LRM)は、チェーン・オブ・ソート・プロンプトによるテスト時間スケーリングにおいて大きな進歩を示している。
検索o1のような現在のアプローチは、検索拡張生成(RAG)を多段階推論プロセスに統合しているが、フラットでコンテキストに依存しない方法で構造化されていないテキスト情報を組み込んで、単一の線形推論チェーンに依存している。
結果として、これらのアプローチは推論チェーン全体のエラーの蓄積につながり、精度とトレーサビリティの両方が重要な要件である医療質問応答(QA)タスクにおいて、その有効性を著しく制限する。
これらの課題に対処するため、構造化された医療知識グラフ上で動的マルチチェーン推論を実行する新しいテスト時スケーラブル推論フレームワークであるMIRAGE(Multi-chain Inference with Retrieval-Augmented Graph Exploration)を提案する。
特にMIRAGE
1) 複雑なクエリをエンティティ基底のサブクエリに分解する。
2) 並列推論チェーンを実行する。
3)隣接する拡張やマルチホップ・トラバースを通じて証拠を適応的に回収し,
4) 矛盾を解決するためにクロスチェーン検証を使用して回答を統合する。
3つの医学QAベンチマーク(GenMedGPT-5k, CMCQA, ExplainCPE)での実験では、MIRAGEはGPT-4o, Tree-of-Thought variants, その他検索強化ベースラインを自動評価と人為評価の両方で一貫して上回っている。
さらに、MIRAGEは、知識グラフ内の個々の事実的主張を具体的な連鎖にトレースする明示的な推論連鎖を生成することにより、解釈可能性を改善し、複雑な医学的推論シナリオに適している。
コードは、さらなる研究のために利用できる。
関連論文リスト
- Towards Agentic RAG with Deep Reasoning: A Survey of RAG-Reasoning Systems in LLMs [69.10441885629787]
Retrieval-Augmented Generation (RAG) は、外部知識を注入することによって、Large Language Models (LLM) の事実性を高める。
逆に、純粋に推論指向のアプローチは、しばしば幻覚的あるいは誤った事実を必要とする。
この調査は両鎖を統一的推論-検索の観点から合成する。
論文 参考訳(メタデータ) (2025-07-13T03:29:41Z) - Causal Graphs Meet Thoughts: Enhancing Complex Reasoning in Graph-Augmented LLMs [4.701165676405066]
関連情報を検索するだけでなく、因果推論や説明可能性の提供も重要である。
本稿では,大きな知識グラフをフィルタして原因効果エッジを強調する新しいパイプラインを提案する。
医学的質問応答タスクの実験では、一貫した利得を示し、最大10%の絶対的な改善がある。
論文 参考訳(メタデータ) (2025-01-24T19:31:06Z) - Chain-of-Retrieval Augmented Generation [72.06205327186069]
本稿では,o1-like RAGモデルを学習し,最終回答を生成する前に段階的に関連情報を抽出・推論する手法を提案する。
提案手法であるCoRAGは,進化状態に基づいて動的にクエリを再構成する。
論文 参考訳(メタデータ) (2025-01-24T09:12:52Z) - Answering Questions by Meta-Reasoning over Multiple Chains of Thought [53.55653437903948]
MCR(Multi-Chain Reasoning)は,大規模言語モデルに対して,複数の思考連鎖に対するメタ推論を促す手法である。
MCRは、異なる推論連鎖を調べ、それら間で情報を混合し、説明を生成し、答えを予測する際に最も関係のある事実を選択する。
論文 参考訳(メタデータ) (2023-04-25T17:27:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。