論文の概要: MARS: toward more efficient multi-agent collaboration for LLM reasoning
- arxiv url: http://arxiv.org/abs/2509.20502v1
- Date: Wed, 24 Sep 2025 19:24:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.562206
- Title: MARS: toward more efficient multi-agent collaboration for LLM reasoning
- Title(参考訳): MARS:LLM推論のためのより効率的なマルチエージェント協調に向けて
- Authors: Xiao Wang, Jia Wang, Yijie Wang, Pengtao Dang, Sha Cao, Chi Zhang,
- Abstract要約: マルチエージェントレビューシステム(MARS)は、レビュープロセスにインスパイアされたロールベースのコラボレーションフレームワークである。
我々は,MARSがトークン使用量と推論時間の両方を約50%削減しながら,MAD(Multi-Agent Debate)の精度に一致していることを示す。
- 参考スコア(独自算出の注目度): 12.889395413072696
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) have achieved impressive results in natural language understanding, yet their reasoning capabilities remain limited when operating as single agents. Multi-Agent Debate (MAD) has been proposed to address this limitation by enabling collaborative reasoning among multiple models in a round-table debate manner. While effective, MAD introduces substantial computational overhead due to the number of agents involved and the frequent communication required. In this paper, we propose MARS (Multi-Agent Review System), a role-based collaboration framework inspired by the review process. In MARS, an author agent generates an initial solution, reviewer agents provide decisions and comments independently, and a meta-reviewer integrates the feedback to make the final decision and guide further revision. This design enhances reasoning quality while avoiding costly reviewer-to-reviewer interactions, thereby controlling token consumption and inference time. We compared MARS with both MAD and other state-of-the-art reasoning strategies across multiple benchmarks. Extensive experiments with different LLMs show that MARS matches the accuracy of MAD while reducing both token usage and inference time by approximately 50\%. Code is available at https://github.com/xwang97/MARS.
- Abstract(参考訳): 大規模言語モデル(LLM)は、自然言語理解において目覚ましい結果を得たが、その推論能力は単一エージェントとして動作する場合に限られている。
マルチエージェント・ディベート(MAD)は、複数のモデル間の協調的推論を、ラウンドテーブルの議論方法で実現することにより、この制限に対処するために提案されている。
有効ではあるが、MADは関与するエージェントの数と頻繁な通信量によって、かなりの計算オーバーヘッドをもたらす。
本稿では、レビュープロセスにインスパイアされたロールベースのコラボレーションフレームワークであるMARS(Multi-Agent Review System)を提案する。
MARSでは、著者エージェントが初期解を生成し、レビュアエージェントが意思決定とコメントを独立して提供し、メタリビューアがフィードバックを統合して最終決定を行い、さらなるリビジョンを導く。
この設計は、コストのかかるレビュアー対リビューアの相互作用を回避しつつ、推論品質を高め、トークンの消費と推論時間を制御する。
複数のベンチマークでMARSとMADおよびその他の最先端の推論戦略を比較した。
異なる LLM を用いた大規模な実験により,MARS はMAD の精度と一致し,トークン使用量と推論時間の両方を約50%削減した。
コードはhttps://github.com/xwang97/MARSで入手できる。
関連論文リスト
- Free-MAD: Consensus-Free Multi-Agent Debate [17.384699873512464]
マルチエージェント討論(MAD)は、大規模言語モデル(LLM)の推論能力を改善するための新しいアプローチである。
既存のMADメソッドは、合意に達するためにエージェント間の複数ラウンドの相互作用に依存しており、最終的な出力は前回のラウンドで多数決によって選択される。
エージェント間のコンセンサスを必要としない新しいMADフレームワークであるtextscFree-MADを提案する。
論文 参考訳(メタデータ) (2025-09-14T01:55:01Z) - ReMA: Learning to Meta-think for LLMs with Multi-Agent Reinforcement Learning [53.817538122688944]
Reinforced Meta-thinking Agents (ReMA) を導入し,Large Language Models (LLMs) の推論からメタ思考行動を求める。
ReMAは、推論プロセスを2つの階層的なエージェントに分解する。戦略上の監視と計画を生成するハイレベルなメタ思考エージェントと、詳細な実行のための低レベルな推論エージェントである。
単ターン実験による実験結果から、ReMAは複雑な推論タスクにおいて単エージェントRLベースラインよりも優れることが示された。
論文 参考訳(メタデータ) (2025-03-12T16:05:31Z) - Stop Overvaluing Multi-Agent Debate -- We Must Rethink Evaluation and Embrace Model Heterogeneity [20.408720462383158]
マルチエージェント討論(MAD)は,大規模言語モデル(LLM)の事実的精度と推論能力を改善するための,将来的な研究ラインとして注目されている。
概念的魅力にもかかわらず、現在のMAD研究は評価実践の限界に悩まされている。
そこで本研究では, 基礎モデルを用いて, 9つのベンチマークにまたがる5つの代表的MAD手法の体系的評価を行った。
論文 参考訳(メタデータ) (2025-02-12T21:01:10Z) - Should we be going MAD? A Look at Multi-Agent Debate Strategies for LLMs [7.7433783185451075]
コスト、時間、正確性の間のトレードオフを探るため、さまざまな議論と戦略をベンチマークします。
マルチエージェントの議論システムは、現在の形式では、他の提案されたプロンプト戦略を確実に上回っているわけではない。
これらの結果に基づいて、エージェント合意レベルの調整など、議論戦略の改善に関する洞察を提供する。
論文 参考訳(メタデータ) (2023-11-29T05:54:41Z) - Sentiment Analysis through LLM Negotiations [58.67939611291001]
感情分析の標準的なパラダイムは、単一のLCMに依存して、その決定を1ラウンドで行うことである。
本稿では,感情分析のためのマルチLLMネゴシエーションフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-03T12:35:29Z) - Encouraging Divergent Thinking in Large Language Models through Multi-Agent Debate [85.3444184685235]
複数のエージェントが"tit for tat"の状態で議論を表現するマルチエージェント議論(MAD)フレームワークを提案し、審査員が議論プロセスを管理して最終解を得る。
我々のフレームワークは、深い熟考を必要とするタスクに役立ちそうなLSMにおける散発的思考を奨励する。
論文 参考訳(メタデータ) (2023-05-30T15:25:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。