論文の概要: Voting or Consensus? Decision-Making in Multi-Agent Debate
- arxiv url: http://arxiv.org/abs/2502.19130v1
- Date: Wed, 26 Feb 2025 13:39:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-27 14:56:43.081303
- Title: Voting or Consensus? Decision-Making in Multi-Agent Debate
- Title(参考訳): 投票か合意か? マルチエージェント討論における意思決定
- Authors: Lars Benedikt Kaesberg, Jonas Becker, Jan Philip Wahle, Terry Ruas, Bela Gipp,
- Abstract要約: 意思決定がさまざまなタスクの課題にどのように対処するかは、ほとんど分かっていない。
投票プロトコルは、推論タスクとコンセンサスプロトコルのパフォーマンスが13.2%向上し、知識タスクの2.8%向上した。
回答の多様性を高めて意思決定を改善するために,2つの新しい方法を提案する。
- 参考スコア(独自算出の注目度): 6.655615220908708
- License:
- Abstract: Much of the success of multi-agent debates depends on carefully choosing the right parameters. Among them, the decision-making protocol stands out. Systematic comparison of decision protocols is difficult because studies alter multiple discussion parameters beyond the protocol. So far, it has been largely unknown how decision-making addresses the challenges of different tasks. This work systematically evaluates the impact of seven decision protocols (e.g., majority voting, unanimity consensus). We change only one variable at a time (i.e., decision protocol) to analyze how different methods affect the collaboration between agents and test different protocols on knowledge (MMLU, MMLU-Pro, GPQA) and reasoning datasets (StrategyQA, MuSR, SQuAD 2.0). Our results show that voting protocols improve performance by 13.2% in reasoning tasks and consensus protocols by 2.8% in knowledge tasks over the other decision protocol. Increasing the number of agents improves performance, while more discussion rounds before voting reduces it. To improve decision-making by increasing answer diversity, we propose two new methods, All-Agents Drafting (AAD) and Collective Improvement (CI). Our methods improve task performance by up to 3.3% with AAD and up to 7.4% with CI. This work demonstrates the importance of decision-making in multi-agent debates beyond scaling.
- Abstract(参考訳): マルチエージェントの議論の成功の多くは、適切なパラメータを慎重に選択することに依存している。
その中でも、意思決定プロトコルは際立っている。
決定プロトコルの体系的比較は、プロトコル以外の複数の議論パラメータを変更するため困難である。
これまでのところ、意思決定がさまざまなタスクの課題にどのように対処するかは、ほとんど分かっていない。
この研究は、7つの決定プロトコル(例えば、多数決、全会一致)の影響を体系的に評価する。
エージェント間の協調や知識(MMLU, MMLU-Pro, GPQA)と推論データセット(StrategyQA, MuSR, SQuAD 2.0)の異なるプロトコルのテストにおいて、異なるメソッドがエージェント間の協調にどのように影響するかを分析するために、一度に1つの変数(すなわち、決定プロトコル)だけを変更します。
その結果,投票プロトコルは,他の決定プロトコルよりも知識タスクの2.8%,推論タスクやコンセンサスプロトコルのパフォーマンスが13.2%向上していることがわかった。
エージェントの数を増やすことでパフォーマンスが向上する一方、投票前により多くの議論が行なわれる。
回答の多様性を高めて意思決定を改善するために,AAD(All-Agents Drafting)とCI(Collective Improvement)という2つの新しい手法を提案する。
AADでは最大3.3%,CIでは最大7.4%のタスクパフォーマンス向上を実現しています。
この研究は、スケーリング以外のマルチエージェントの議論における意思決定の重要性を示している。
関連論文リスト
- RoundTable: Investigating Group Decision-Making Mechanism in Multi-Agent Collaboration [15.2119694237099]
本研究では,マルチエージェントシステムによるエージェント間コミュニケーションの活用と,集団知能の強化効果について検討する。
様々な環境で異なる投票規則を適用することで、適度な決定の柔軟性がより良い結果をもたらすことが分かる。
論文 参考訳(メタデータ) (2024-11-11T17:37:47Z) - Mix Q-learning for Lane Changing: A Collaborative Decision-Making Method in Multi-Agent Deep Reinforcement Learning [8.455482816036689]
本稿では,Mix Q-learning for Lane Changing(MQLC)を提案する。
集団レベルでは,グローバル情報を利用して個別のQネットワークとグローバルQネットワークを協調する。
個人レベルでは、深層学習に基づく意図認識モジュールを観察に統合し、意思決定ネットワークを強化した。
論文 参考訳(メタデータ) (2024-06-14T06:44:19Z) - ReConcile: Round-Table Conference Improves Reasoning via Consensus among Diverse LLMs [61.07130026622437]
大規模言語モデル(LLM)は、まだ自然言語推論タスクに苦戦している。
心の社会に動機づけられて、我々はReConcileを提案する。
LLMエージェント間のラウンドテーブル会議として設計されたマルチモデルマルチエージェントフレームワーク。
論文 参考訳(メタデータ) (2023-09-22T17:12:45Z) - Decision-Oriented Dialogue for Human-AI Collaboration [62.367222979251444]
そこでは,大規模言語モデル(LM)のようなAIアシスタントが,自然言語を介して複数の人間と協調して複雑な意思決定を行うための,意思決定指向対話と呼ばれるタスクのクラスについて述べる。
日常的な意思決定に直面する3つの領域を定式化し,(1)レビュアーの会議論文への課題の選択,(2)都市における複数段階の旅程の計画,(3)友人集団の旅行計画の交渉を行う。
各タスクに対して、エージェントが到達した最終決定の質に基づいて報酬を受け取る対話環境を構築する。
論文 参考訳(メタデータ) (2023-05-31T17:50:02Z) - ACE: Cooperative Multi-agent Q-learning with Bidirectional
Action-Dependency [65.28061634546577]
マルチエージェント強化学習(MARL)は非定常性問題に悩まされる。
本稿では,双方向行動依存型Q-ラーニング(ACE)を提案する。
ACEは、Google Research FootballとStarCraft Multi-Agent Challengeで最先端のアルゴリズムを上回っている。
論文 参考訳(メタデータ) (2022-11-29T10:22:55Z) - Policy Diagnosis via Measuring Role Diversity in Cooperative Multi-agent
RL [107.58821842920393]
我々はエージェントの行動差を定量化し、bfロールの多様性を通して政策パフォーマンスとの関係を構築する
MARLの誤差は, 役割多様性と強い関係を持つ3つの部分に分けられる。
分解された要因は3つの一般的な方向における政策最適化に大きな影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2022-06-01T04:58:52Z) - Toward Policy Explanations for Multi-Agent Reinforcement Learning [18.33682005623418]
MARLのための2種類のポリシー記述を生成するための新しい手法を提案する。
3つのMARL領域の実験結果から,提案手法のスケーラビリティが実証された。
ユーザスタディでは、生成された説明がユーザパフォーマンスを著しく改善し、ユーザ満足度などの指標に対する主観的評価が向上することを示した。
論文 参考訳(メタデータ) (2022-04-26T20:07:08Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - Efficient PAC Reinforcement Learning in Regular Decision Processes [99.02383154255833]
定期的な意思決定プロセスで強化学習を研究します。
我々の主な貢献は、最適に近いポリシーをパラメータのセットで時間内にPACを学習できることである。
論文 参考訳(メタデータ) (2021-05-14T12:08:46Z) - The Influence of Memory in Multi-Agent Consensus [0.8399688944263843]
我々は、emphmemoryコンセンサスプロトコルと呼ばれるものを研究するためのフレームワークを提案する。
メモリの利用により、そのようなプロセスは常に収束し、サイクルのようないくつかのシナリオではより早く収束することが示される。
エージェントが表現した最初の意見に基づいて、各オプションが最終的にそのようなプロセスに勝つ確率を理論的に分析する。
論文 参考訳(メタデータ) (2021-05-10T20:59:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。