論文の概要: Cooperation and Competition: Flocking with Evolutionary Multi-Agent
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2209.04696v1
- Date: Sat, 10 Sep 2022 15:35:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-13 14:02:59.962183
- Title: Cooperation and Competition: Flocking with Evolutionary Multi-Agent
Reinforcement Learning
- Title(参考訳): 協力と競争:進化的マルチエージェント強化学習との融合
- Authors: Yunxiao Guo, Xinjia Xie, Runhao Zhao, Chenglan Zhu, Jiangting Yin, Han
Long
- Abstract要約: 本稿では, フラッキングタスクにおける進化的マルチエージェント強化学習(EMARL)を提案する。
EMARLは、協力と競争を、ほとんど事前知識と組み合わせている。
EMARLは完全競争法や協調法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Flocking is a very challenging problem in a multi-agent system; traditional
flocking methods also require complete knowledge of the environment and a
precise model for control. In this paper, we propose Evolutionary Multi-Agent
Reinforcement Learning (EMARL) in flocking tasks, a hybrid algorithm that
combines cooperation and competition with little prior knowledge. As for
cooperation, we design the agents' reward for flocking tasks according to the
boids model. While for competition, agents with high fitness are designed as
senior agents, and those with low fitness are designed as junior, letting
junior agents inherit the parameters of senior agents stochastically. To
intensify competition, we also design an evolutionary selection mechanism that
shows effectiveness on credit assignment in flocking tasks. Experimental
results in a range of challenging and self-contrast benchmarks demonstrate that
EMARL significantly outperforms the full competition or cooperation methods.
- Abstract(参考訳): フラッキングはマルチエージェントシステムにおいて非常に困難な問題であり、従来のフラッキング手法では環境の完全な知識と制御のための正確なモデルも必要である。
本稿では,協調と競争をほとんど事前知識と組み合わせたハイブリッドアルゴリズムであるflocking tasksにおける進化的マルチエージェント強化学習(emarl)を提案する。
協力については,boidsモデルに基づき,タスク群集に対するエージェントの報酬をデザインする。
競争において、高いフィットネスのエージェントはシニアエージェントとして設計され、低いフィットネスのエージェントはジュニアエージェントとして設計され、下位エージェントは統計的にシニアエージェントのパラメータを継承する。
競争を激化させるため,フロッディングタスクにおけるクレジット割り当ての有効性を示す進化的選択機構も設計する。
実験結果から、EMARLは完全な競合や協調手法よりも優れており、様々な挑戦的かつ自己コントラストなベンチマークが得られた。
関連論文リスト
- Joint Intrinsic Motivation for Coordinated Exploration in Multi-Agent
Deep Reinforcement Learning [0.0]
本稿では,エージェントが一括して斬新な行動を示すような報奨戦略を提案する。
ジムは連続した環境で機能するように設計されたノベルティの集中的な尺度に基づいて共同軌道に報いる。
その結果、最適戦略が高レベルの調整を必要とするタスクの解決には、共同探索が不可欠であることが示唆された。
論文 参考訳(メタデータ) (2024-02-06T13:02:00Z) - CompeteSMoE -- Effective Training of Sparse Mixture of Experts via
Competition [52.2034494666179]
スパース・ミックス・オブ・エキスパート(SMoE)は、ネットワークの深さや幅を増大させる平均を超えた、モデルの複雑さをスケールアップする魅力的なソリューションを提供する。
本稿では,この表現崩壊の根本的な課題に対処する競合機構を提案する。
入力を最も高い神経応答を持つ専門家にのみルーティングすることにより、コンペティションが最適推定器と同じ収束率を持つことを示す。
論文 参考訳(メタデータ) (2024-02-04T15:17:09Z) - Benchmarking Robustness and Generalization in Multi-Agent Systems: A
Case Study on Neural MMO [50.58083807719749]
IJCAI 2022で開催されている第2回Neural MMOチャレンジの結果を報告する。
この競合はマルチエージェントシステムの堅牢性と一般化をターゲットにしている。
環境ラッパー、ベースライン、可視化ツール、そしてさらなる研究のための選択されたポリシーを含むベンチマークをオープンソースにします。
論文 参考訳(メタデータ) (2023-08-30T07:16:11Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - AgentVerse: Facilitating Multi-Agent Collaboration and Exploring
Emergent Behaviors [93.38830440346783]
本稿では,その構成をより高機能なシステムとして協調的に調整できるマルチエージェントフレームワークを提案する。
実験により,フレームワークが単一エージェントより優れたマルチエージェントグループを効果的に展開できることが実証された。
これらの振舞いの観点から、我々は、ポジティブなものを活用し、ネガティブなものを緩和し、マルチエージェントグループの協調可能性を改善するためのいくつかの戦略について議論する。
論文 参考訳(メタデータ) (2023-08-21T16:47:11Z) - Towards Few-shot Coordination: Revisiting Ad-hoc Teamplay Challenge In
the Game of Hanabi [15.917861586043813]
現状のZSCアルゴリズムは、異なる学習手法で訓練されたエージェントとペアリングした場合、性能が劣っていることを示す。
我々は,MARL手法の適応性を評価するために,ハナビと呼ばれる人気のある協調型マルチエージェントゲームに基づくフレームワークを構築した。
論文 参考訳(メタデータ) (2023-08-20T14:44:50Z) - Learning in Cooperative Multiagent Systems Using Cognitive and Machine
Models [1.0742675209112622]
マルチエージェントシステム(MAS)は、人間との協調と協調を必要とする多くのアプリケーションにとって重要である。
一つの大きな課題は、動的環境における独立したエージェントの同時学習と相互作用である。
我々はMulti-Agent IBLモデル(MAIBL)の3つの変種を提案する。
我々は,MAIBLモデルが学習速度を向上し,動的CMOTPタスクにおいて,現在のMADRLモデルと比較して様々な報酬設定でコーディネートを達成できることを実証した。
論文 参考訳(メタデータ) (2023-08-18T00:39:06Z) - Learning Reward Machines in Cooperative Multi-Agent Tasks [75.79805204646428]
本稿では,MARL(Multi-Agent Reinforcement Learning)に対する新しいアプローチを提案する。
これは、協調的なタスク分解と、サブタスクの構造をコードする報酬機(RM)の学習を組み合わせる。
提案手法は、部分的に観測可能な環境下での報酬の非マルコフ的性質に対処するのに役立つ。
論文 参考訳(メタデータ) (2023-03-24T15:12:28Z) - Group-Agent Reinforcement Learning [12.915860504511523]
複数の地理的に分散したエージェントがそれぞれのRLタスクを協調的に実行すれば、各エージェントの強化学習プロセスに大きく貢献できる。
グループエージェント強化学習(GARL)のための分散RLフレームワークDDAL(Decentralized Distributed Asynchronous Learning)を提案する。
論文 参考訳(メタデータ) (2022-02-10T16:40:59Z) - Emergence of Theory of Mind Collaboration in Multiagent Systems [65.97255691640561]
ToMとエージェント間の効果的な協調を開発するための適応的学習アルゴリズムを提案する。
アルゴリズムはToMをモデル化せずに従来の分散実行アルゴリズムを全て上回る2つのゲームで評価する。
論文 参考訳(メタデータ) (2021-09-30T23:28:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。