論文の概要: MAPLE: Multi-Agent Adaptive Planning with Long-Term Memory for Table Reasoning
- arxiv url: http://arxiv.org/abs/2506.05813v1
- Date: Fri, 06 Jun 2025 07:21:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:43.357313
- Title: MAPLE: Multi-Agent Adaptive Planning with Long-Term Memory for Table Reasoning
- Title(参考訳): MAPLE: テーブル推論のための長期記憶型マルチエージェント適応計画
- Authors: Ye Bai, Minghan Wang, Thuy-Trang Vu,
- Abstract要約: テーブルベースの質問応答は、現在のLLMが達成に苦慮している複雑な推論機能を必要とする。
我々は,フィードバック駆動ループで作業する認知エージェントを通じて,人間の問題解決を模倣する新しいフレームワークMAPLEを提案する。
- 参考スコア(独自算出の注目度): 9.647162327984638
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Table-based question answering requires complex reasoning capabilities that current LLMs struggle to achieve with single-pass inference. Existing approaches, such as Chain-of-Thought reasoning and question decomposition, lack error detection mechanisms and discard problem-solving experiences, contrasting sharply with how humans tackle such problems. In this paper, we propose MAPLE (Multi-agent Adaptive Planning with Long-term mEmory), a novel framework that mimics human problem-solving through specialized cognitive agents working in a feedback-driven loop. MAPLE integrates 4 key components: (1) a Solver using the ReAct paradigm for reasoning, (2) a Checker for answer verification, (3) a Reflector for error diagnosis and strategy correction, and (4) an Archiver managing long-term memory for experience reuse and evolution. Experiments on WiKiTQ and TabFact demonstrate significant improvements over existing methods, achieving state-of-the-art performance across multiple LLM backbones.
- Abstract(参考訳): テーブルベースの質問応答は、現在のLLMがシングルパス推論で達成に苦慮している複雑な推論機能を必要とする。
既存のアプローチ、例えばChain-of-Thoughtの推論や質問分解、エラー検出機構の欠如、問題解決経験の破棄などは、人間がこのような問題にどのように取り組むかと対照的である。
本稿では,Multi-agent Adaptive Planning with Long-term mEmoryを提案する。
MAPLEは、(1)推論にReActパラダイムを使用するソルバー、(2)回答検証のためのチェッカー、(3)エラー診断と戦略修正のためのリフレクタ、(4)体験の再利用と進化のために長期記憶を管理するアーカイブの4つのキーコンポーネントを統合している。
WiKiTQとTabFactの実験では、既存のメソッドよりも大幅に改善され、複数のLLMバックボーンで最先端のパフォーマンスが達成された。
関連論文リスト
- Reinforcing Question Answering Agents with Minimalist Policy Gradient Optimization [80.09112808413133]
Mujicaは、質問をサブクエストの非循環グラフに分解するプランナーであり、検索と推論を通じて質問を解決するワーカーである。
MyGOは、従来のポリシー更新を勾配的いいねりの最大推定に置き換える、新しい強化学習手法である。
複数のデータセットにまたがる実験結果から,マルチホップQA性能向上における MujicaMyGO の有効性が示された。
論文 参考訳(メタデータ) (2025-05-20T18:33:03Z) - MAMM-Refine: A Recipe for Improving Faithfulness in Generation with Multi-Agent Collaboration [63.31211701741323]
我々はマルチエージェント・マルチモデル推論を生成にまで拡張し、特に改良による忠実度の向上を図っている。
我々は,各サブタスクに対して固有の評価を設計し,マルチエージェント(複数インスタンス)とマルチモデル(多変数LPMタイプ)の両方がエラー検出やクオリティクスに有効であることを示す。
我々はこれらの知見を、マルチエージェント・マルチモデル・リファインメント(MAMM-Refinement)と呼ばれる最終的な"レシピ"に統合し、マルチエージェント・マルチモデルコラボレーションがパフォーマンスを大幅に向上させる。
論文 参考訳(メタデータ) (2025-03-19T14:46:53Z) - FINEREASON: Evaluating and Improving LLMs' Deliberate Reasoning through Reflective Puzzle Solving [90.88021670297664]
FINEREASONは、大規模言語モデルの推論能力を評価するための論理パズルベンチマークである。
状態チェックと状態遷移という2つのタスクを導入し、モデルが現在の状況をどのように評価するかを総合的に評価し、次の動きを計画する。
状態チェックと遷移データに基づいてトレーニングされたモデルでは、GSM8Kで最大5.1%の精度で数学推論が向上することを示す。
論文 参考訳(メタデータ) (2025-02-27T16:23:25Z) - Table-Critic: A Multi-Agent Framework for Collaborative Criticism and Refinement in Table Reasoning [3.721438719967748]
Table-Criticは、協調的な批判と推論プロセスの反復的な洗練を促進する、新しいマルチエージェントフレームワークである。
枠組みは, エラー識別審査員, 包括的批判批判者, プロセス改善の精錬者, パターン蒸留のキュレーターの4つの特殊エージェントから構成される。
計算効率と解分解率の低下を保ちながら、テーブル・クライトは精度と誤差補正率に優れることを示した。
論文 参考訳(メタデータ) (2025-02-17T13:42:12Z) - An Entailment Tree Generation Approach for Multimodal Multi-Hop Question Answering with Mixture-of-Experts and Iterative Feedback Mechanism [14.479060028732803]
マルチモーダルなマルチホップ質問応答の現在の手法は、主に2つの課題に直面している。
大量の冗長な情報を含む検索された証拠は、性能を著しく低下させる。
解釈可能な推論ステップのない推論プロセスは、複雑な問題を扱うための論理的誤りを発見するのを難しくする。
論文 参考訳(メタデータ) (2024-12-08T05:47:55Z) - ReST meets ReAct: Self-Improvement for Multi-Step Reasoning LLM Agent [50.508669199496474]
外部知識に基づいて推論と行動を行うReAct-style LLMエージェントを開発した。
エージェントをReSTライクな手法で改良し,従来の軌道上で反復的に訓練する。
引き起こされた大きなモデルから始まり、アルゴリズムのたった2イテレーションの後に、微調整された小さなモデルを生成することができる。
論文 参考訳(メタデータ) (2023-12-15T18:20:15Z) - Faith and Fate: Limits of Transformers on Compositionality [109.79516190693415]
3つの代表的構成課題にまたがる変圧器大言語モデルの限界について検討する。
これらのタスクは、問題をサブステップに分割し、これらのステップを正確な答えに合成する必要があります。
実験結果から,多段階合成推論を線形化部分グラフマッチングに還元することにより,トランスフォーマーLLMが構成課題を解くことが示唆された。
論文 参考訳(メタデータ) (2023-05-29T23:24:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。