論文の概要: Negotiating Team Formation Using Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2010.10380v1
- Date: Tue, 20 Oct 2020 15:41:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 06:38:17.969917
- Title: Negotiating Team Formation Using Deep Reinforcement Learning
- Title(参考訳): 深層強化学習によるチーム形成の交渉
- Authors: Yoram Bachrach, Richard Everett, Edward Hughes, Angeliki Lazaridou,
Joel Z. Leibo, Marc Lanctot, Michael Johanson, Wojciech M. Czarnecki, Thore
Graepel
- Abstract要約: 深層強化学習を用いてチームを交渉・形成するための訓練エージェントのための枠組みを提案する。
我々は,非空間的および空間的に拡張されたチーム・フォーム交渉環境に対するアプローチを評価した。
- 参考スコア(独自算出の注目度): 32.066083116314815
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When autonomous agents interact in the same environment, they must often
cooperate to achieve their goals. One way for agents to cooperate effectively
is to form a team, make a binding agreement on a joint plan, and execute it.
However, when agents are self-interested, the gains from team formation must be
allocated appropriately to incentivize agreement. Various approaches for
multi-agent negotiation have been proposed, but typically only work for
particular negotiation protocols. More general methods usually require human
input or domain-specific data, and so do not scale. To address this, we propose
a framework for training agents to negotiate and form teams using deep
reinforcement learning. Importantly, our method makes no assumptions about the
specific negotiation protocol, and is instead completely experience driven. We
evaluate our approach on both non-spatial and spatially extended team-formation
negotiation environments, demonstrating that our agents beat hand-crafted bots
and reach negotiation outcomes consistent with fair solutions predicted by
cooperative game theory. Additionally, we investigate how the physical location
of agents influences negotiation outcomes.
- Abstract(参考訳): 自律エージェントが同じ環境で対話する場合、目標を達成するためにしばしば協力しなければならない。
エージェントが効果的に協力する一つの方法は、チームを結成し、共同計画に拘束力のある合意を結び、実行することである。
しかし、エージェントが自己関心がある場合、合意のインセンティブを得るためには、チーム形成からの利益を適切に割り当てる必要があります。
マルチエージェント交渉のための様々なアプローチが提案されているが、通常は特定の交渉プロトコルでのみ機能する。
より一般的な方法は、通常人間の入力やドメイン固有のデータを必要とするため、スケールしない。
そこで本研究では,深層強化学習を用いてチームを編成・交渉する訓練エージェントの枠組みを提案する。
重要なことは、本手法は特定の交渉プロトコルを仮定せず、完全に経験駆動である。
我々は,非空間的および空間的に拡張されたチーム形成交渉環境における我々のアプローチを評価し,エージェントが手作りのボットを打ち負かし,協調ゲーム理論によって予測された公正な解決と一致した交渉結果に達することを実証した。
さらに,エージェントの物理的位置が交渉結果に与える影響について検討する。
関連論文リスト
- Be Selfish, But Wisely: Investigating the Impact of Agent Personality in
Mixed-Motive Human-Agent Interactions [24.266490660606497]
セルフプレイのRLは交渉において妥協の価値を学ばないことがわかった。
我々は、多様な個性を持つエージェントを設計し、人間のパートナーとのパフォーマンスを分析するために、トレーニング手順を2つの新しい方法で修正する。
どちらの手法も有望性を示すが、自尊心のあるエージェントは、自己と交渉相手の両方に価値を生み出すことを暗黙的に学習することで、自身のパフォーマンスを最大化し、歩行を回避し、他の変種よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2023-10-22T20:31:35Z) - Cooperation, Competition, and Maliciousness: LLM-Stakeholders Interactive Negotiation [52.930183136111864]
我々は,大言語モデル(LLM)を評価するためにスコーラブルネゴシエーション(scorable negotiations)を提案する。
合意に達するには、エージェントは強力な算術、推論、探索、計画能力を持つ必要がある。
我々は、新しいゲームを作成し、進化するベンチマークを持つことの難しさを増大させる手順を提供する。
論文 参考訳(メタデータ) (2023-09-29T13:33:06Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - Adaptation and Communication in Human-Robot Teaming to Handle
Discrepancies in Agents' Beliefs about Plans [13.637799815698559]
我々はモンテカルロ木探索に基づくオンライン実行アルゴリズムを提案し,その動作を計画する。
私たちのエージェントは、共有されたメンタルモデルを保証することなく、チームで作業するための装備がより優れていることを示しています。
論文 参考訳(メタデータ) (2023-07-07T03:05:34Z) - Language of Bargaining [60.218128617765046]
我々は、言語の使用が二国間交渉をどのように形成するかを研究するための新しいデータセットを構築した。
我々の研究は、交渉の結果を予測する言語信号も明らかにしている。
論文 参考訳(メタデータ) (2023-06-12T13:52:01Z) - Learning to Cooperate with Unseen Agent via Meta-Reinforcement Learning [4.060731229044571]
アドホックなチームワーク問題は、エージェントが共通の目標を達成するために、以前は目に見えないエージェントと協力しなければならない状況を記述する。
エージェントの振る舞いを設計するためにドメイン知識を使用することで、エージェントに協調的なスキルを実装することができる。
本稿では,メタ強化学習(meta-RL)の定式化をアドホックなチームワーク問題に応用する。
論文 参考訳(メタデータ) (2021-11-05T12:01:28Z) - Targeted Data Acquisition for Evolving Negotiation Agents [6.953246373478702]
成功した交渉者は、自己利益と協力のために最適化のバランスをとる方法を学ばなければならない。
現在の人工交渉エージェントは、トレーニングされた静的データセットの品質に大きく依存することが多い。
我々は、強化学習エージェントの探索をガイドするターゲットデータ取得フレームワークを導入する。
論文 参考訳(メタデータ) (2021-06-14T19:45:59Z) - On the Critical Role of Conventions in Adaptive Human-AI Collaboration [73.21967490610142]
規則依存表現と規則依存表現を区別する学習フレームワークを提案する。
複雑性が異なる3つの共同作業に対するアプローチを実験的に検証します。
論文 参考訳(メタデータ) (2021-04-07T02:46:19Z) - On Emergent Communication in Competitive Multi-Agent Teams [116.95067289206919]
外部のエージェントチームによるパフォーマンスの競争が社会的影響として作用するかどうかを検討する。
以上の結果から,外部競争の影響により精度と一般化が向上し,コミュニケーション言語が急速に出現することが示唆された。
論文 参考訳(メタデータ) (2020-03-04T01:14:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。