論文の概要: Adaptive Reasoning Executor: A Collaborative Agent System for Efficient Reasoning
- arxiv url: http://arxiv.org/abs/2510.13214v1
- Date: Wed, 15 Oct 2025 06:59:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.535204
- Title: Adaptive Reasoning Executor: A Collaborative Agent System for Efficient Reasoning
- Title(参考訳): Adaptive Reasoning Executor: 効率的なReasoningのための協調エージェントシステム
- Authors: Zehui Ling, Deshu Chen, Yichi Zhang, Yuchen Liu, Xigui Li, Xin Guo, Yuan Cheng,
- Abstract要約: 思考の連鎖と深い推論は複雑なタスクのパフォーマンスを大幅に向上させる。
すべての問題に深い推論を適用するのは、計算コストがかかる。
本稿では,小規模および大規模言語モデルを統合した補完エージェントシステムを提案する。
- 参考スコア(独自算出の注目度): 21.75018489673356
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in Large Language Models (LLMs) demonstrate that chain-of-thought prompting and deep reasoning substantially enhance performance on complex tasks, and multi-agent systems can further improve accuracy by enabling model debates. However, applying deep reasoning to all problems is computationally expensive. To mitigate these costs, we propose a complementary agent system integrating small and large LLMs. The small LLM first generates an initial answer, which is then verified by the large LLM. If correct, the answer is adopted directly; otherwise, the large LLM performs in-depth reasoning. Experimental results show that, for simple problems, our approach reduces the computational cost of the large LLM by more than 50% with negligible accuracy loss, while consistently maintaining robust performance on complex tasks.
- Abstract(参考訳): 近年のLarge Language Models (LLMs) の進歩は、チェーン・オブ・シンセサイティングと深い推論によって複雑なタスクのパフォーマンスが大幅に向上し、マルチエージェントシステムはモデルの議論を可能にして精度をさらに向上させることができることを示している。
しかし、全ての問題に深い推論を適用するのは計算コストがかかる。
これらのコストを軽減するために,小型・大規模LLMを統合する補完エージェントシステムを提案する。
小さいLLMは最初に最初の答えを生成し、大きなLLMによって検証される。
正しければ、その答えは直接採用されるが、そうでなければ、大きなLLMは深い推論を行う。
実験の結果, 簡単な問題に対して, 計算コストを50%以上削減し, 計算精度を低下させるとともに, 複雑なタスクにおける頑健な性能を持続的に維持できることが示唆された。
関連論文リスト
- Cost-Optimal Grouped-Query Attention for Long-Context Modeling [45.981681856747365]
Grouped-Query Attention(GQA)は、大規模言語モデルにおける注目層の計算コストを削減するための広く採用されている戦略である。
我々は,文脈長,モデルサイズ,GQA構成,モデル損失の関係を分析する。
コスト最適GQA構成の導出法を提案する。
論文 参考訳(メタデータ) (2025-03-12T17:50:42Z) - Towards Efficient LLM Grounding for Embodied Multi-Agent Collaboration [68.29746557968107]
本稿では,多エージェント協調のための新しいフレームワークを提案する。これは,効率的な自己調整のための強化アドバンテージフィードバック(Reinforced Advantage feedback, ReAd)を導入する。
Over-AIと難解なRoCoBenchの実験は、ReAdが成功率のベースラインを超え、エージェントの相互作用ステップを著しく減少させることを示している。
論文 参考訳(メタデータ) (2024-05-23T08:33:19Z) - Are More LLM Calls All You Need? Towards Scaling Laws of Compound Inference Systems [76.69936664916061]
LM呼び出し回数がVotteとFilter-Voteのパフォーマンスに与える影響について検討する。
意外なことに、複数の言語タスクにおいて、VoteとFilter-Voteの両方のパフォーマンスは、まず増大するが、LM呼び出しの回数の関数として減少する可能性がある。
論文 参考訳(メタデータ) (2024-03-04T19:12:48Z) - Large Language Model Cascades with Mixture of Thoughts Representations
for Cost-efficient Reasoning [19.472937476936636]
大きな言語モデル(LLM)は、様々なタスクで顕著なパフォーマンスを示していますが、この強力なパフォーマンスは、しばしば有料のAPIサービスを使用するコストが高くなります。
本稿では, LLM のコスト削減を目的とした LLM カスケードの構築について検討する。
提案するカスケードは,より強力なLCMのみを使用すれば性能が向上するが,コストの40%しか必要としない。
論文 参考訳(メタデータ) (2023-10-04T18:21:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。