論文の概要: Dynamic Role Assignment for Multi-Agent Debate
- arxiv url: http://arxiv.org/abs/2601.17152v1
- Date: Fri, 23 Jan 2026 20:15:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:07.310283
- Title: Dynamic Role Assignment for Multi-Agent Debate
- Title(参考訳): マルチエージェント・ディベートのための動的役割アサインメント
- Authors: Miao Zhang, Junsik Kim, Siyuan Xiang, Jian Gao, Cheng Cao,
- Abstract要約: マルチエージェント大言語モデル (LLM) とビジョン言語モデル (VLM) の議論システムは複雑な問題解決に特別な役割を担っている。
そこで本研究では,メタ・ディベートを動作させる動的ロール割り当てを提案し,適切なエージェントを選択する。
- 参考スコア(独自算出の注目度): 14.507557609798615
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-agent large language model (LLM) and vision-language model (VLM) debate systems employ specialized roles for complex problem-solving, yet model specializations are not leveraged to decide which model should fill which role. We propose dynamic role assignment, a framework that runs a Meta-Debate to select suitable agents before the actual debate. The meta-debate has two stages: (1) proposal, where candidates provide role-tailored arguments, and (2) peer review, where proposals are scored with data and role-specific criteria to choose the best agent for each position. We evaluate our method on LLM problem solving benchmarks. Applied on top of existing debate systems, our approach consistently outperforms uniform assignments (filling all roles with the same model) by up to 74.8% and random assignments (assigning models to roles without considering their suitability) by up to 29.7%, depending on the task and the specific assignment. This work establishes a new paradigm for multi-agent system design, shifting from static agent deployment to dynamic and capability-aware selection.
- Abstract(参考訳): マルチエージェント大言語モデル (LLM) とビジョン言語モデル (VLM) の議論システムは複雑な問題解決のために特別な役割を担っているが、どのモデルがどの役割を果たすかを決定するためにモデル特殊化は利用されていない。
そこで本研究では,メタ・ディベートを動作させる動的ロール割り当てを提案する。
メタディベートは、(1) 候補が役割を絞った議論を行う提案、(2) ピアレビュー、(2) データと役割固有の基準で提案が評価され、それぞれのポジションに最適なエージェントを選択する。
LLM問題解決ベンチマークにおいて,本手法の評価を行った。
既存の議論システムに応用して,提案手法は,タスクや特定のタスクに応じて,最大74.8%,ランダムな割り当て(適性を考慮せずに,ロールにモデルを割り当てる)を最大29.7%,均一な割り当て(同一モデルですべてのロールを充足する)を一貫して上回っている。
この研究は、マルチエージェントシステム設計の新しいパラダイムを確立し、静的エージェントのデプロイメントから動的かつ能力に配慮した選択へと移行した。
関連論文リスト
- Orchestrating Intelligence: Confidence-Aware Routing for Efficient Multi-Agent Collaboration across Multi-Scale Models [41.494768986191104]
OI-MASは、マルチスケールモデルのヘテロジニアスプールにまたがる適応モデル選択ポリシーを実装する、新しいマルチエージェントフレームワークである。
OI-MASはベースラインのマルチエージェントシステムより一貫して優れており、精度は最大12.88%向上し、コストは最大79.78%削減されている。
論文 参考訳(メタデータ) (2026-01-08T11:56:09Z) - AMUSE: Audio-Visual Benchmark and Alignment Framework for Agentic Multi-Speaker Understanding [73.05946667683259]
最近の大規模言語モデル(MLLM)は、強い認識を示すが、多話者、対話中心の設定に苦戦している。
本質的にエージェント的なタスクを中心に設計されたベンチマークであるAMUSEを紹介します。
我々は、報酬最適化と本質的なマルチモーダル自己評価を統合するデータ効率の高いエージェントアライメントフレームワークRAFTを提案する。
論文 参考訳(メタデータ) (2025-12-18T07:01:47Z) - MADIAVE: Multi-Agent Debate for Implicit Attribute Value Extraction [52.89860691282002]
インプシット属性値抽出(AVE)は、電子商取引における商品の正確な表現に不可欠である。
マルチモーダル大言語モデル(MLLM)の進歩にもかかわらず、多次元データの複雑さのため暗黙のAVEは依然として困難である。
我々は,複数のMLLMエージェントを用いて推論を反復的に洗練するマルチエージェント討論フレームワークであるtextscmodelnameを紹介する。
論文 参考訳(メタデータ) (2025-10-07T06:27:42Z) - A Multi-To-One Interview Paradigm for Efficient MLLM Evaluation [63.76972456980632]
効率的なMLLM評価のためのマルチツーワンインタビューパラダイムを提案する。
本フレームワークは, (i) 事前面接と形式面接の2段階面接戦略, (ii) 公平性を確保するための重みの動的調整, (iii) 質問難度選択のための適応的メカニズムから構成される。
論文 参考訳(メタデータ) (2025-09-18T12:07:40Z) - MALT: Improving Reasoning with Multi-Agent LLM Training [67.76186488361685]
MALT(Multi-Agent LLM Training)は、推論プロセスを生成、検証、改善ステップに分割する、新しいポストトレーニング戦略である。
MATH、GSM8K、CSQAでは、MALTは、それぞれ15.66%、7.42%、9.40%の相対的な改善で同じベースラインLLMを上回っている。
論文 参考訳(メタデータ) (2024-12-02T19:30:36Z) - Diversity of Thought Elicits Stronger Reasoning Capabilities in Multi-Agent Debate Frameworks [0.0]
大規模言語モデルの推論と事実的正確性を改善するために, 思考の促進, 自己検証, マルチエージェントの議論が提案されている。
マルチエージェントの議論はどんなモデルスケールでも有効であり、思考の多様性はLLMの議論においてより強力な推論をもたらす。
論文 参考訳(メタデータ) (2024-10-10T21:59:01Z) - MockLLM: A Multi-Agent Behavior Collaboration Framework for Online Job Seeking and Recruiting [29.676163697160945]
モックインタビューインタラクションの生成と評価を行う新しいフレームワークである textbfMockLLM を提案する。
インタビュアーと候補の両方の役割をシミュレートすることで、MockLLMはリアルタイムと双方向のマッチングのための一貫性のある協調的なインタラクションを可能にする。
我々は、中国の主要な採用プラットフォームであるBoss Zhipinの実際のデータに基づいて、MockLLMを評価した。
論文 参考訳(メタデータ) (2024-05-28T12:23:16Z) - Towards Robust Multi-Modal Reasoning via Model Selection [7.6621866737827045]
LLMはエージェントの"脳"として機能し、協調的な多段階タスク解決のための複数のツールを編成する。
我々はテスト時に無視できるランタイムオーバーヘッドを持つプラグインとして、$textitM3$フレームワークを提案する。
実験の結果,我々のフレームワークは,ユーザ入力とサブタスク依存の両方を考慮した動的モデル選択を可能にすることがわかった。
論文 参考訳(メタデータ) (2023-10-12T16:06:18Z) - A Dynamic LLM-Powered Agent Network for Task-Oriented Agent Collaboration [55.35849138235116]
本稿では,様々なタスクやドメインに対する動的コミュニケーション構造において,候補からエージェントのチームを自動的に選択する手法を提案する。
具体的には, LLMを利用したエージェント協調のための動的LLMパワーエージェントネットワーク(textDyLAN$)というフレームワークを構築した。
我々は、コード生成、意思決定、一般的な推論、算術的推論タスクにおいて、適度な計算コストで、DyLANが強力なベースラインを上回ることを実証する。
論文 参考訳(メタデータ) (2023-10-03T16:05:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。