論文の概要: Cooperation and Competition: Flocking with Evolutionary Multi-Agent
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2209.04696v2
- Date: Tue, 13 Sep 2022 06:56:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-14 10:26:43.343023
- Title: Cooperation and Competition: Flocking with Evolutionary Multi-Agent
Reinforcement Learning
- Title(参考訳): 協力と競争:進化的マルチエージェント強化学習との融合
- Authors: Yunxiao Guo, Xinjia Xie, Runhao Zhao, Chenglan Zhu, Jiangting Yin, Han
Long
- Abstract要約: 本稿では, フラッキングタスクにおける進化的マルチエージェント強化学習(EMARL)を提案する。
EMARLは、協力と競争を、ほとんど事前知識と組み合わせている。
EMARLは完全競争法や協調法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Flocking is a very challenging problem in a multi-agent system; traditional
flocking methods also require complete knowledge of the environment and a
precise model for control. In this paper, we propose Evolutionary Multi-Agent
Reinforcement Learning (EMARL) in flocking tasks, a hybrid algorithm that
combines cooperation and competition with little prior knowledge. As for
cooperation, we design the agents' reward for flocking tasks according to the
boids model. While for competition, agents with high fitness are designed as
senior agents, and those with low fitness are designed as junior, letting
junior agents inherit the parameters of senior agents stochastically. To
intensify competition, we also design an evolutionary selection mechanism that
shows effectiveness on credit assignment in flocking tasks. Experimental
results in a range of challenging and self-contrast benchmarks demonstrate that
EMARL significantly outperforms the full competition or cooperation methods.
- Abstract(参考訳): フラッキングはマルチエージェントシステムにおいて非常に困難な問題であり、従来のフラッキング手法では環境の完全な知識と制御のための正確なモデルも必要である。
本稿では,協調と競争をほとんど事前知識と組み合わせたハイブリッドアルゴリズムであるflocking tasksにおける進化的マルチエージェント強化学習(emarl)を提案する。
協力については,boidsモデルに基づき,タスク群集に対するエージェントの報酬をデザインする。
競争において、高いフィットネスのエージェントはシニアエージェントとして設計され、低いフィットネスのエージェントはジュニアエージェントとして設計され、下位エージェントは統計的にシニアエージェントのパラメータを継承する。
競争を激化させるため,フロッディングタスクにおけるクレジット割り当ての有効性を示す進化的選択機構も設計する。
実験結果から、EMARLは完全な競合や協調手法よりも優れており、様々な挑戦的かつ自己コントラストなベンチマークが得られた。
関連論文リスト
- Scaling Large-Language-Model-based Multi-Agent Collaboration [75.5241464256688]
大規模言語モデルによるエージェントのパイオニア化は、マルチエージェントコラボレーションの設計パターンを暗示している。
神経スケーリング法則に触発された本研究では,マルチエージェント協調におけるエージェントの増加に類似の原理が適用されるかを検討する。
論文 参考訳(メタデータ) (2024-06-11T11:02:04Z) - CompetEvo: Towards Morphological Evolution from Competition [60.69068909395984]
エージェントの設計と戦術を共進化させる競争進化(CompetEvo)を提案する。
その結果,エージェントがより適切な設計と戦略を進化させることができることがわかった。
論文 参考訳(メタデータ) (2024-05-28T15:53:02Z) - Joint Intrinsic Motivation for Coordinated Exploration in Multi-Agent
Deep Reinforcement Learning [0.0]
本稿では,エージェントが一括して斬新な行動を示すような報奨戦略を提案する。
ジムは連続した環境で機能するように設計されたノベルティの集中的な尺度に基づいて共同軌道に報いる。
その結果、最適戦略が高レベルの調整を必要とするタスクの解決には、共同探索が不可欠であることが示唆された。
論文 参考訳(メタデータ) (2024-02-06T13:02:00Z) - CompeteAI: Understanding the Competition Dynamics in Large Language Model-based Agents [43.46476421809271]
大規模言語モデル(LLM)は、様々なタスクを完了させるエージェントとして広く使われている。
本稿ではエージェント間の競合を研究するための一般的な枠組みを提案する。
そして、GPT-4を用いて仮想街をシミュレートする現実的な競争環境を構築する。
論文 参考訳(メタデータ) (2023-10-26T16:06:20Z) - Benchmarking Robustness and Generalization in Multi-Agent Systems: A
Case Study on Neural MMO [50.58083807719749]
IJCAI 2022で開催されている第2回Neural MMOチャレンジの結果を報告する。
この競合はマルチエージェントシステムの堅牢性と一般化をターゲットにしている。
環境ラッパー、ベースライン、可視化ツール、そしてさらなる研究のための選択されたポリシーを含むベンチマークをオープンソースにします。
論文 参考訳(メタデータ) (2023-08-30T07:16:11Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - Towards Few-shot Coordination: Revisiting Ad-hoc Teamplay Challenge In
the Game of Hanabi [15.917861586043813]
現状のZSCアルゴリズムは、異なる学習手法で訓練されたエージェントとペアリングした場合、性能が劣っていることを示す。
我々は,MARL手法の適応性を評価するために,ハナビと呼ばれる人気のある協調型マルチエージェントゲームに基づくフレームワークを構築した。
論文 参考訳(メタデータ) (2023-08-20T14:44:50Z) - Learning in Cooperative Multiagent Systems Using Cognitive and Machine
Models [1.0742675209112622]
マルチエージェントシステム(MAS)は、人間との協調と協調を必要とする多くのアプリケーションにとって重要である。
一つの大きな課題は、動的環境における独立したエージェントの同時学習と相互作用である。
我々はMulti-Agent IBLモデル(MAIBL)の3つの変種を提案する。
我々は,MAIBLモデルが学習速度を向上し,動的CMOTPタスクにおいて,現在のMADRLモデルと比較して様々な報酬設定でコーディネートを達成できることを実証した。
論文 参考訳(メタデータ) (2023-08-18T00:39:06Z) - Learning Reward Machines in Cooperative Multi-Agent Tasks [75.79805204646428]
本稿では,MARL(Multi-Agent Reinforcement Learning)に対する新しいアプローチを提案する。
これは、協調的なタスク分解と、サブタスクの構造をコードする報酬機(RM)の学習を組み合わせる。
提案手法は、部分的に観測可能な環境下での報酬の非マルコフ的性質に対処するのに役立つ。
論文 参考訳(メタデータ) (2023-03-24T15:12:28Z) - Emergence of Theory of Mind Collaboration in Multiagent Systems [65.97255691640561]
ToMとエージェント間の効果的な協調を開発するための適応的学習アルゴリズムを提案する。
アルゴリズムはToMをモデル化せずに従来の分散実行アルゴリズムを全て上回る2つのゲームで評価する。
論文 参考訳(メタデータ) (2021-09-30T23:28:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。