論文の概要: Natural Emergence of Heterogeneous Strategies in Artificially
Intelligent Competitive Teams
- arxiv url: http://arxiv.org/abs/2007.03102v1
- Date: Mon, 6 Jul 2020 22:35:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-13 02:36:54.952628
- Title: Natural Emergence of Heterogeneous Strategies in Artificially
Intelligent Competitive Teams
- Title(参考訳): 知的人工知能チームにおける異種戦略の自然発生
- Authors: Ankur Deka and Katia Sycara
- Abstract要約: 我々はFortAttackと呼ばれる競合するマルチエージェント環境を開発し、2つのチームが互いに競合する。
このような振る舞いがチームの成功に繋がる場合、同種エージェント間の異種行動の自然発生を観察する。
我々は、進化した反対戦略を利用して、友好的なエージェントのための単一のポリシーを訓練するアンサンブルトレーニングを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi agent strategies in mixed cooperative-competitive environments can be
hard to craft by hand because each agent needs to coordinate with its teammates
while competing with its opponents. Learning based algorithms are appealing but
many scenarios require heterogeneous agent behavior for the team's success and
this increases the complexity of the learning algorithm. In this work, we
develop a competitive multi agent environment called FortAttack in which two
teams compete against each other. We corroborate that modeling agents with
Graph Neural Networks and training them with Reinforcement Learning leads to
the evolution of increasingly complex strategies for each team. We observe a
natural emergence of heterogeneous behavior amongst homogeneous agents when
such behavior can lead to the team's success. Such heterogeneous behavior from
homogeneous agents is appealing because any agent can replace the role of
another agent at test time. Finally, we propose ensemble training, in which we
utilize the evolved opponent strategies to train a single policy for friendly
agents.
- Abstract(参考訳): 混合協調競争環境におけるマルチエージェント戦略は、各エージェントが相手と競合しながらチームメイトと協調する必要があるため、手で作るのが困難である。
学習ベースのアルゴリズムは魅力的だが、多くのシナリオでは、チームの成功のために異種エージェントの振る舞いを必要とするため、学習アルゴリズムの複雑さが増大する。
本研究では,2つのチームが対戦するfortattackと呼ばれる競合型マルチエージェント環境を構築した。
グラフニューラルネットワークでエージェントをモデリングし、強化学習でそれらをトレーニングすることで、各チームにとってますます複雑な戦略の進化につながります。
このような振る舞いがチームの成功に繋がる場合、同種エージェント間の異種行動の自然発生を観察する。
均質なエージェントからのこのような不均一な振る舞いは、テスト時に他のエージェントの役割を置き換えることができるため、魅力的である。
最後に,親和性のあるエージェントに対する単一ポリシーを訓練するために,進化した敵戦略を利用するアンサンブルトレーニングを提案する。
関連論文リスト
- ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - AgentVerse: Facilitating Multi-Agent Collaboration and Exploring
Emergent Behaviors [93.38830440346783]
本稿では,その構成をより高機能なシステムとして協調的に調整できるマルチエージェントフレームワークを提案する。
実験により,フレームワークが単一エージェントより優れたマルチエージェントグループを効果的に展開できることが実証された。
これらの振舞いの観点から、我々は、ポジティブなものを活用し、ネガティブなものを緩和し、マルチエージェントグループの協調可能性を改善するためのいくつかの戦略について議論する。
論文 参考訳(メタデータ) (2023-08-21T16:47:11Z) - Emergent collective intelligence from massive-agent cooperation and
competition [19.75488604218965]
大規模強化学習による人工知能の出現について検討する。
我々はLuxという大規模強化学習環境を提案する。この環境では、2つのチームの動的エージェントと大規模エージェントが限られたリソースを求めてスクランブルし、暗闇から戦う。
論文 参考訳(メタデータ) (2023-01-04T13:23:12Z) - Exploring the Benefits of Teams in Multiagent Learning [5.334505575267924]
組織心理学(OP)に触発された強化学習(RL)エージェントのためのマルチエージェントチームの新しいモデルを提案する。
我々は、協力しないインセンティブにもかかわらず、チームに分かれたエージェントが協調的な社会政策を開発することを発見した。
エージェントはチームの創発的な役割をコーディネートし、学習し、すべてのエージェントの利害関係が整った時よりも高い報酬を得ることができる。
論文 参考訳(メタデータ) (2022-05-04T21:14:03Z) - Coach-assisted Multi-Agent Reinforcement Learning Framework for
Unexpected Crashed Agents [120.91291581594773]
本稿では,予期せぬクラッシュを伴う協調型マルチエージェント強化学習システムの公式な定式化について述べる。
本稿では,教師支援型多エージェント強化学習フレームワークを提案する。
私たちの知る限りでは、この研究はマルチエージェントシステムにおける予期せぬクラッシュを初めて研究したものです。
論文 参考訳(メタデータ) (2022-03-16T08:22:45Z) - On-the-fly Strategy Adaptation for ad-hoc Agent Coordination [21.029009561094725]
協調的な環境での訓練エージェントは、現実世界の人間(および他のエージェント)と効果的に対話できるAIエージェントの約束を提供する。
主な焦点は、セルフプレイパラダイムである。
本稿では,他のエージェントの戦略に対する後続の信念を用いて,エージェント戦略をその場で適応させることにより,この問題を解決することを提案する。
論文 参考訳(メタデータ) (2022-03-08T02:18:11Z) - Conditional Imitation Learning for Multi-Agent Games [89.897635970366]
本研究では,条件付きマルチエージェント模倣学習の課題について考察する。
本稿では,スケーラビリティとデータ不足の難しさに対処する新しい手法を提案する。
我々のモデルは,egoやパートナエージェント戦略よりも低ランクなサブスペースを学習し,サブスペースに補間することで,新たなパートナ戦略を推論し,適応する。
論文 参考訳(メタデータ) (2022-01-05T04:40:13Z) - Generating and Adapting to Diverse Ad-Hoc Cooperation Agents in Hanabi [4.777698073163644]
ハナビでは、コーディネートされたプレイヤーのグループは、事前に確立された慣習を有効活用することができるが、アドホックな設定でプレーするには、前回のコーディネートなしでパートナーの戦略に適応する必要がある。
本稿では,この目的のために多様な個体群を生成するための,有望なアルゴリズムのクラスとして品質多様性アルゴリズムを提案する。
また,エージェントは訓練中に多様な集団の恩恵を受けることができ,エージェントが知覚する行動ニッチに適応するためのシンプルな「メタストラテジー」を実装することができると仮定した。
論文 参考訳(メタデータ) (2020-04-28T05:03:19Z) - Learning from Learners: Adapting Reinforcement Learning Agents to be
Competitive in a Card Game [71.24825724518847]
本稿では,競争力のあるマルチプレイヤーカードゲームの現実的な実装を学習・プレイするために,一般的な強化学習アルゴリズムをどのように適用できるかについて検討する。
本研究は,学習エージェントに対して,エージェントが競争力を持つことの学習方法を評価するための特定のトレーニングと検証ルーチンを提案し,それらが相互の演奏スタイルにどのように適応するかを説明する。
論文 参考訳(メタデータ) (2020-04-08T14:11:05Z) - On Emergent Communication in Competitive Multi-Agent Teams [116.95067289206919]
外部のエージェントチームによるパフォーマンスの競争が社会的影響として作用するかどうかを検討する。
以上の結果から,外部競争の影響により精度と一般化が向上し,コミュニケーション言語が急速に出現することが示唆された。
論文 参考訳(メタデータ) (2020-03-04T01:14:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。