論文の概要: Learning to Negotiate via Voluntary Commitment
- arxiv url: http://arxiv.org/abs/2503.03866v2
- Date: Wed, 19 Mar 2025 07:23:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-20 15:20:40.128473
- Title: Learning to Negotiate via Voluntary Commitment
- Title(参考訳): 自発的コミットメントによる交渉の学習
- Authors: Shuhui Zhu, Baoxiang Wang, Sriram Ganapathi Subramanian, Pascal Poupart,
- Abstract要約: 自律エージェントの部分的なアライメントとコンフリクトは、現実世界のアプリケーションにおいて混合モチベーションシナリオをもたらす。
我々は,エージェントが自発的に将来の計画にコミットできる,コミットメントゲームの一種であるMarkov Commitment Games (MCGs)を提案する。
混合モチベーションの課題に対する実験結果から,より高速な経験的収束と,本手法の帰納率の向上が示された。
- 参考スコア(独自算出の注目度): 24.76922344331357
- License:
- Abstract: The partial alignment and conflict of autonomous agents lead to mixed-motive scenarios in many real-world applications. However, agents may fail to cooperate in practice even when cooperation yields a better outcome. One well known reason for this failure comes from non-credible commitments. To facilitate commitments among agents for better cooperation, we define Markov Commitment Games (MCGs), a variant of commitment games, where agents can voluntarily commit to their proposed future plans. Based on MCGs, we propose a learnable commitment protocol via policy gradients. We further propose incentive-compatible learning to accelerate convergence to equilibria with better social welfare. Experimental results in challenging mixed-motive tasks demonstrate faster empirical convergence and higher returns for our method compared with its counterparts. Our code is available at https://github.com/shuhui-zhu/DCL.
- Abstract(参考訳): 自律エージェントの部分的なアライメントとコンフリクトは、現実世界の多くのアプリケーションにおいて混合モチベーションシナリオをもたらす。
しかし、協力がより良い結果をもたらす場合でも、エージェントは実際に協力することができないかもしれない。
この失敗の有名な理由は、非クレディブルなコミットメントによるものである。
エージェント間のコミットメントを促進するために,エージェントが自発的に将来の計画にコミットできるコミットメントゲームの一種であるMarkov Commitment Games(MCGs)を定義した。
MCGに基づいて,政策勾配を用いた学習可能なコミットメントプロトコルを提案する。
さらに,社会福祉の向上をめざして,均衡への収束を加速させるインセンティブに適合した学習を提案する。
混合モチベーションの課題に対する実験結果から,提案手法よりも高速な経験的収束と高い戻り値が得られた。
私たちのコードはhttps://github.com/shuhui-zhu/DCLで公開しています。
関連論文リスト
- Cognitive Insights and Stable Coalition Matching for Fostering Multi-Agent Cooperation [6.536780912510439]
本稿では,ToMレベルの異なるエージェントの強度を利用する新しい連立機構を提案する。
我々の研究は、ToMを活用して、より高度で人間らしいコーディネーション戦略を構築する可能性を実証しています。
論文 参考訳(メタデータ) (2024-05-28T10:59:33Z) - Reaching Consensus in Cooperative Multi-Agent Reinforcement Learning
with Goal Imagination [16.74629849552254]
本稿では,複数のエージェントを協調するモデルに基づくコンセンサス機構を提案する。
提案したMulti-Adnt Goal Imagination (MAGI) フレームワークは、エージェントがImagined Common goalとコンセンサスに達するためのガイドである。
このような効率的なコンセンサス機構は、すべてのエージェントを協調して有用な将来状態に導くことができることを示す。
論文 参考訳(メタデータ) (2024-03-05T18:07:34Z) - Cooperation, Competition, and Maliciousness: LLM-Stakeholders Interactive Negotiation [52.930183136111864]
我々は,大言語モデル(LLM)を評価するためにスコーラブルネゴシエーション(scorable negotiations)を提案する。
合意に達するには、エージェントは強力な算術、推論、探索、計画能力を持つ必要がある。
我々は、新しいゲームを作成し、進化するベンチマークを持つことの難しさを増大させる手順を提供する。
論文 参考訳(メタデータ) (2023-09-29T13:33:06Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - Adaptive Value Decomposition with Greedy Marginal Contribution
Computation for Cooperative Multi-Agent Reinforcement Learning [48.41925886860991]
現実世界の協力はしばしばエージェント間の集中的な調整を必要とする。
単調なユーティリティの単調混合として値関数を学習する従来の方法は、非単調なリターンでタスクを解くことはできない。
非単調な問題に対処するための新しい明示的な信用割当手法を提案する。
論文 参考訳(メタデータ) (2023-02-14T07:23:59Z) - On the Critical Role of Conventions in Adaptive Human-AI Collaboration [73.21967490610142]
規則依存表現と規則依存表現を区別する学習フレームワークを提案する。
複雑性が異なる3つの共同作業に対するアプローチを実験的に検証します。
論文 参考訳(メタデータ) (2021-04-07T02:46:19Z) - Efficient Querying for Cooperative Probabilistic Commitments [29.57444821831916]
マルチエージェントシステムは、一般的な調整インフラストラクチャの中核としてコミットメントを使用できる。
慎重に選択されたコミットメントの選択について問い合わせることで、協力エージェントが(およそ)最適なコミットメントを効率的に見つける方法を示します。
論文 参考訳(メタデータ) (2020-12-14T00:47:09Z) - Negotiating Team Formation Using Deep Reinforcement Learning [32.066083116314815]
深層強化学習を用いてチームを交渉・形成するための訓練エージェントのための枠組みを提案する。
我々は,非空間的および空間的に拡張されたチーム・フォーム交渉環境に対するアプローチを評価した。
論文 参考訳(メタデータ) (2020-10-20T15:41:23Z) - UneVEn: Universal Value Exploration for Multi-Agent Reinforcement
Learning [53.73686229912562]
我々はUniversal Value Exploration(UneVEn)と呼ばれる新しいMARLアプローチを提案する。
UneVEnは、一連の関連するタスクと、普遍的な後継機能の線形分解を同時に学習する。
一連の探索ゲームにおける実証的な結果、エージェント間の重要な調整を必要とする協調捕食・捕食作業への挑戦、およびStarCraft IIのマイクロマネジメントベンチマークは、UneVEnが他の最先端のMARLメソッドが失敗するタスクを解決できることを示している。
論文 参考訳(メタデータ) (2020-10-06T19:08:47Z) - A Cordial Sync: Going Beyond Marginal Policies for Multi-Agent Embodied
Tasks [111.34055449929487]
エージェントが協力して家具をリビングルームに移動させるという,新しいタスクFurnMoveを紹介した。
既存のタスクとは異なり、FurnMoveはエージェントが各タイミングで調整する必要がある。
既存の分散化されたアクションサンプリング手順は、表現力のある共同アクションポリシーを許さない。
SynC-policiesとCORDIALを用いて、我々のエージェントはFurnMoveで58%の完成率を達成する。
論文 参考訳(メタデータ) (2020-07-09T17:59:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。