論文の概要: CortexDebate: Debating Sparsely and Equally for Multi-Agent Debate
- arxiv url: http://arxiv.org/abs/2507.03928v1
- Date: Sat, 05 Jul 2025 07:23:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:34.941063
- Title: CortexDebate: Debating Sparsely and Equally for Multi-Agent Debate
- Title(参考訳): CortexDebate: マルチエージェントデリベートについて, 疎らかに, 等しく議論する
- Authors: Yiliu Sun, Zicheng Zhao, Sheng Wan, Chen Gong,
- Abstract要約: 単一大言語モデル(LLM)の問題を緩和するための効果的な戦略としてマルチエージェント議論(MAD)が登場した。
既存のMAD手法では、 (a) LLMエージェントが多くの入力情報に紛失し、性能低下を経験する、 (b) 自信過剰なジレンマ(自己保証LDMエージェントが議論を支配し、議論の有効性を低くする、という2つの問題に直面している。
そこで我々は,ヒトの脳に着想を得た新しいMAD手法"CortexDebate"を提案する。
- 参考スコア(独自算出の注目度): 11.155092859033784
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nowadays, single Large Language Model (LLM) struggles with critical issues such as hallucination and inadequate reasoning abilities. To mitigate these issues, Multi-Agent Debate (MAD) has emerged as an effective strategy, where LLM agents engage in in-depth debates with others on tasks. However, existing MAD methods face two major issues: (a) too lengthy input contexts, which causes LLM agents to get lost in plenty of input information and experiences performance drop; and (b) the overconfidence dilemma, where self-assured LLM agents dominate the debate, leading to low debating effectiveness. To address these limitations, we propose a novel MAD method called "CortexDebate". Inspired by the human brain's tendency to establish a sparse and dynamically optimized network among cortical areas governed by white matter, CortexDebate constructs a sparse debating graph among LLM agents, where each LLM agent only debates with the ones that are helpful to it. To optimize the graph, we propose a module named McKinsey-based Debate Matter (MDM), which acts as an artificial analog to white matter. By integrating the McKinsey Trust Formula, a well-established measure of trustworthiness from sociology, MDM enables credible evaluations that guide graph optimization. The effectiveness of our CortexDebate has been well demonstrated by extensive experimental results across eight datasets from four task types.
- Abstract(参考訳): 現在、単一大言語モデル(LLM)は幻覚や不適切な推論能力といった重要な問題に悩まされている。
これらの問題を緩和するために、MAD(Multi-Agent Debate)は、LLMエージェントがタスクに関して他の人と深い議論を行う効果的な戦略として登場した。
しかし、既存のMADメソッドは2つの大きな問題に直面している。
(a)入力コンテキストが長すぎると、LLMエージェントが多くの入力情報に紛失し、性能低下を経験する。
b) 自己保証型LDMエージェントが議論を主導する過信ジレンマは, 議論の有効性を低くする。
これらの制約に対処するため,我々は"CortexDebate"と呼ばれる新しいMAD手法を提案する。
ヒトの脳が白黒物質によって支配される皮質領域に疎結合で動的に最適化されたネットワークを確立する傾向に触発されて、CortexDebateはLSMエージェント間でスパース議論グラフを構築し、それぞれのLDMエージェントがそれに役立つものとのみ議論する。
このグラフを最適化するために, ホワイトマターの人工的なアナログとして機能する, マッキンゼーをベースとしたDebate Matter (MDM) というモジュールを提案する。
社会学からの信頼度をよく確立した尺度であるマッキンゼー・トラスト・フォーミュラを統合することで、MDMはグラフ最適化を導く信頼できる評価を可能にする。
CortexDebateの有効性は、4つのタスクタイプから8つのデータセットにまたがる広範な実験結果によってよく実証されている。
関連論文リスト
- Debate Only When Necessary: Adaptive Multiagent Collaboration for Efficient LLM Reasoning [8.800516398660069]
大規模言語モデル(LLM)の推論能力を高めるための,有望なフレームワークとして,マルチエージェントコラボレーションが登場した。
本稿では,エージェントの初期応答の信頼性スコアに基づいて,議論を選択的に活性化する適応型マルチエージェント討論フレームワークであるDebate Only When Necessary (DOWN)を提案する。
ダウンは最大6倍の効率向上を実現し、既存のメソッドのパフォーマンスを保留する。
論文 参考訳(メタデータ) (2025-04-07T13:17:52Z) - Debatrix: Multi-dimensional Debate Judge with Iterative Chronological Analysis Based on LLM [51.43102092480804]
Debatrixは、Large Language Models (LLMs)に基づく自動ディスカッションジャッジである。
実世界の議論シナリオに合わせるため、私たちはPanelBenchベンチマークを導入し、システムの性能と実際の議論結果を比較した。
以上の結果から,LSMを直接使用して議論評価を行ない,顕著な改善が見られた。
論文 参考訳(メタデータ) (2024-03-12T18:19:47Z) - Encouraging Divergent Thinking in Large Language Models through Multi-Agent Debate [85.3444184685235]
複数のエージェントが"tit for tat"の状態で議論を表現するマルチエージェント議論(MAD)フレームワークを提案し、審査員が議論プロセスを管理して最終解を得る。
我々のフレームワークは、深い熟考を必要とするタスクに役立ちそうなLSMにおける散発的思考を奨励する。
論文 参考訳(メタデータ) (2023-05-30T15:25:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。