論文の概要: Belief-Calibrated Multi-Agent Consensus Seeking for Complex NLP Tasks
- arxiv url: http://arxiv.org/abs/2510.06307v1
- Date: Tue, 07 Oct 2025 17:53:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.11622
- Title: Belief-Calibrated Multi-Agent Consensus Seeking for Complex NLP Tasks
- Title(参考訳): 複雑なNLPタスクに対する信念校正型マルチエージェント・コンセンサス
- Authors: Wentao Deng, Jiahuan Pei, Zhiwei Xu, Zhaochun Ren, Zhumin Chen, Pengjie Ren,
- Abstract要約: コンセンサス安定性を最大化する最適協力者を選択するための理論的枠組みを提供する。
この定理に基づいて,安定したコンセンサスを促進するためのBCCS(Belief-Calibrated Consensus Seeking)フレームワークを提案する。
MATHおよびMMLUベンチマークデータセットの実験結果から、提案したBCCSフレームワークが既存の最高の結果を上回っていることが示された。
- 参考スコア(独自算出の注目度): 45.14284473132228
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A multi-agent system (MAS) enhances its capacity to solve complex natural language processing (NLP) tasks through collaboration among multiple agents, where consensus-seeking serves as a fundamental mechanism. However, existing consensus-seeking approaches typically rely on voting mechanisms to judge consensus, overlooking contradictions in system-internal beliefs that destabilize the consensus. Moreover, these methods often involve agents updating their results through indiscriminate collaboration with every other agent. Such uniform interaction fails to identify the optimal collaborators for each agent, hindering the emergence of a stable consensus. To address these challenges, we provide a theoretical framework for selecting optimal collaborators that maximize consensus stability. Based on the theorems, we propose the Belief-Calibrated Consensus Seeking (BCCS) framework to facilitate stable consensus via selecting optimal collaborators and calibrating the consensus judgment by system-internal beliefs. Experimental results on the MATH and MMLU benchmark datasets demonstrate that the proposed BCCS framework outperforms the best existing results by 2.23% and 3.95% of accuracy on challenging tasks, respectively. Our code and data are available at https://github.com/dengwentao99/BCCS.
- Abstract(参考訳): マルチエージェントシステム(MAS)は、複数のエージェント間の協調によって複雑な自然言語処理(NLP)タスクを解決する能力を高め、コンセンサス検索が基本的なメカニズムとなる。
しかし、既存のコンセンサス検索アプローチは、コンセンサスを不安定化するシステム内部の信念の矛盾を見越して、コンセンサスを判断する投票機構に依存している。
さらに、これらの手法は、他のすべてのエージェントとの非差別的なコラボレーションを通じて、結果を更新するエージェントを含むことが多い。
このような一様相互作用は、各エージェントの最適コラボレータを特定することに失敗し、安定したコンセンサスの出現を妨げる。
これらの課題に対処するため、コンセンサス安定性を最大化する最適な協力者を選択するための理論的枠組みを提供する。
定理に基づいて,最適協力者の選択とシステム内部の信念によるコンセンサス判断の校正により,安定したコンセンサスを促進するBCCSフレームワークを提案する。
MATHとMMLUのベンチマークデータセットの実験結果から、提案されたBCSフレームワークは、それぞれ難題の精度の2.23%と3.95%で、最も優れた既存の結果を上回っていることが示された。
私たちのコードとデータはhttps://github.com/dengwentao99/BCCS.comで公開されています。
関連論文リスト
- CP-uniGuard: A Unified, Probability-Agnostic, and Adaptive Framework for Malicious Agent Detection and Defense in Multi-Agent Embodied Perception Systems [21.478631468402977]
コラボレーティブ・パーセプション(CP)は、マルチエージェント自律運転とマルチエージェントロボットシステムにとって有望な技術であることが示されている。
CPでは、egoエージェントは、その協力者からメッセージを受け取る必要があるため、悪意のあるエージェントからの攻撃に対して脆弱である。
我々は、CP-uniGuardという統合された、確率に依存しない、適応的なフレームワークを提案し、その協調ネットワークにおける悪意のあるエージェントを正確に検出し、排除する。
論文 参考訳(メタデータ) (2025-06-28T14:02:14Z) - Reaching Consensus in Cooperative Multi-Agent Reinforcement Learning
with Goal Imagination [16.74629849552254]
本稿では,複数のエージェントを協調するモデルに基づくコンセンサス機構を提案する。
提案したMulti-Adnt Goal Imagination (MAGI) フレームワークは、エージェントがImagined Common goalとコンセンサスに達するためのガイドである。
このような効率的なコンセンサス機構は、すべてのエージェントを協調して有用な将来状態に導くことができることを示す。
論文 参考訳(メタデータ) (2024-03-05T18:07:34Z) - Pure Exploration in Asynchronous Federated Bandits [57.02106627533004]
マルチアームバンディットとリニアバンディットのフェデレートされた純粋な探索問題について検討し、M$エージェントが中央サーバとの通信を通じて最適なアームを協調的に識別する方法について検討した。
信頼度を固定した純粋探索のための非同期マルチアームバンディットおよび線形バンディットアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-17T06:04:00Z) - Pure Exploration under Mediators' Feedback [63.56002444692792]
マルチアームバンディット(Multi-armed bandits)は、各インタラクションステップにおいて、学習者が腕を選択し、報酬を観察する、シーケンシャルな意思決定フレームワークである。
本稿では,学習者が仲介者の集合にアクセスできるシナリオについて考察する。
本稿では,学習者には仲介者の方針が知られていると仮定して,最適な腕を発見するための逐次的意思決定戦略を提案する。
論文 参考訳(メタデータ) (2023-08-29T18:18:21Z) - On the Complexity of Multi-Agent Decision Making: From Learning in Games
to Partial Monitoring [105.13668993076801]
マルチエージェント強化学習(MARL)理論における中心的な問題は、構造条件やアルゴリズムの原理がサンプル効率の学習保証につながるかを理解することである。
本稿では,複数のエージェントを用いた対話型意思決定のための一般的な枠組みとして,この問題について考察する。
マルチエージェント意思決定における統計的複雑性を特徴付けることは、単一エージェント決定の統計的複雑性を特徴付けることと等価であることを示す。
論文 参考訳(メタデータ) (2023-05-01T06:46:22Z) - Trust-based Consensus in Multi-Agent Reinforcement Learning Systems [5.778852464898369]
マルチエージェント強化学習(MARL)における信頼できないエージェントの問題について検討する。
本稿では、分散的信頼機構である強化学習に基づく信頼合意(RLTC)を提案する。
高いコンセンサスの成功率によって証明されるように、信頼できないエージェントを効果的に扱えることを実証的に実証する。
論文 参考訳(メタデータ) (2022-05-25T15:58:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。