論文の概要: RISE: Reasoning Enhancement via Iterative Self-Exploration in Multi-hop Question Answering
- arxiv url: http://arxiv.org/abs/2505.21940v1
- Date: Wed, 28 May 2025 03:48:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.400909
- Title: RISE: Reasoning Enhancement via Iterative Self-Exploration in Multi-hop Question Answering
- Title(参考訳): RISE:Multi-hop Question Answeringにおける反復自己探索による推論強化
- Authors: Bolei He, Xinran He, Mengke Chen, Xianwei Xue, Ying Zhu, Zhenhua Ling,
- Abstract要約: 提案するRISE:Reasoning Enhancement via Iterative Self-Explorationは,モデルの推論能力を高めるために設計された新しいフレームワークである。
MHQAタスクに対処する3つの重要なステップ:質問分解、検索-then-read、自己批判である。
複数のMHQAベンチマークの実験により、RISEは推論精度とタスク性能を大幅に改善することが示された。
- 参考スコア(独自算出の注目度): 25.84802288928995
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) excel in many areas but continue to face challenges with complex reasoning tasks, such as Multi-Hop Question Answering (MHQA). MHQA requires integrating evidence from diverse sources while managing intricate logical dependencies, often leads to errors in reasoning. Retrieval-Augmented Generation (RAG), widely employed in MHQA tasks, faces challenges in effectively filtering noisy data and retrieving all necessary evidence, thereby limiting its effectiveness in addressing MHQA challenges. To address these challenges, we propose RISE:Reasoning Enhancement via Iterative Self-Exploration, a novel framework designed to enhance models' reasoning capability through iterative self-exploration. Specifically, RISE involves three key steps in addressing MHQA tasks: question decomposition, retrieve-then-read, and self-critique. By leveraging continuous self-exploration, RISE identifies accurate reasoning paths, iteratively self-improving the model's capability to integrate evidence, maintain logical consistency, and enhance performance in MHQA tasks. Extensive experiments on multiple MHQA benchmarks demonstrate that RISE significantly improves reasoning accuracy and task performance.
- Abstract(参考訳): LLM(Large Language Models)は多くの分野で優れていますが、Multi-Hop Question Answering (MHQA)のような複雑な推論タスクで課題に直面し続けています。
MHQAは、複雑な論理的依存関係を管理しながら、様々なソースからのエビデンスを統合する必要がある。
MHQAタスクで広く使用されている検索型拡張生成(RAG)は、ノイズの多いデータを効果的にフィルタリングし、必要なすべての証拠を検索することで、MHQA課題に対処する効果を制限するという課題に直面している。
これらの課題に対処するため,本論文では,反復自己探索による推論能力の向上を目的とした新しいフレームワークである反復自己探索による推論拡張を提案する。
具体的には、MHQAタスクに対処する3つの重要なステップである、質問分解、検索-then-read、自己批判である。
連続的な自己探索を活用することで、RISEは正確な推論経路を特定し、モデルのエビデンスの統合、論理的一貫性の維持、MHQAタスクのパフォーマンスの向上を反復的に自己改善する。
複数のMHQAベンチマークでの大規模な実験により、RISEは推論精度とタスク性能を大幅に改善することが示された。
関連論文リスト
- Reinforcing Question Answering Agents with Minimalist Policy Gradient Optimization [80.09112808413133]
Mujicaは、質問をサブクエストの非循環グラフに分解するプランナーであり、検索と推論を通じて質問を解決するワーカーである。
MyGOは、従来のポリシー更新を勾配的いいねりの最大推定に置き換える、新しい強化学習手法である。
複数のデータセットにまたがる実験結果から,マルチホップQA性能向上における MujicaMyGO の有効性が示された。
論文 参考訳(メタデータ) (2025-05-20T18:33:03Z) - Knowledge-Aware Iterative Retrieval for Multi-Agent Systems [0.0]
本稿では,新しい大規模言語モデル (LLM) によるエージェントフレームワークを提案する。
動的に進化する知識を活用することで、クエリを反復的に洗練し、文脈的証拠をフィルタリングする。
提案システムは、更新されたコンテキストの競合的および協調的な共有をサポートする。
論文 参考訳(メタデータ) (2025-03-17T15:27:02Z) - Beyond the Destination: A Novel Benchmark for Exploration-Aware Embodied Question Answering [87.76784654371312]
Embodied Question Answeringでは、エージェントが動的に3D環境を探索し、視覚情報を積極的に収集し、質問に答えるために多段階の推論を行う必要がある。
既存のデータセットはしばしばバイアスや事前の知識を導入し、非身体的推論につながる。
探索能力と推論能力の両方を評価するために特別に設計された最大のデータセットを構築します。
論文 参考訳(メタデータ) (2025-03-14T06:29:47Z) - ARR: Question Answering with Large Language Models via Analyzing, Retrieving, and Reasoning [22.825527641316192]
本稿では,直感的で効果的で汎用的なQA解法であるARRを紹介する。
質問の意図を分析し、関連する情報を検索し、ステップごとに推論する。
ARRにおいて重要な役割を果たすQAに意図分析を導入するのは、これが初めてである。
論文 参考訳(メタデータ) (2025-02-07T06:30:33Z) - Progressive Multimodal Reasoning via Active Retrieval [64.74746997923967]
多段階多モーダル推論タスクは、大規模言語モデル(MLLM)に重大な課題をもたらす
本稿では,MLLMの推論能力の向上を目的とした汎用フレームワークAR-MCTSを提案する。
我々は,AR-MCTSがサンプリングの多様性と精度を最適化し,信頼性の高いマルチモーダル推論を実現することを示す。
論文 参考訳(メタデータ) (2024-12-19T13:25:39Z) - KaPQA: Knowledge-Augmented Product Question-Answering [59.096607961704656]
我々はAdobe AcrobatとPhotoshop製品に焦点を当てた2つのQAデータセットを紹介した。
また、製品QAタスクにおけるモデルの性能を高めるために、新しい知識駆動型RAG-QAフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-22T22:14:56Z) - Self-RAG: Learning to Retrieve, Generate, and Critique through
Self-Reflection [74.51523859064802]
我々は、自己回帰検索拡張生成(Self-RAG)と呼ばれる新しいフレームワークを導入する。
自己RAGは、検索と自己回帰によってLMの品質と事実性を高める。
様々なタスクセットにおいて、最先端のLCMや検索強化モデルよりも大幅に優れています。
論文 参考訳(メタデータ) (2023-10-17T18:18:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。