論文の概要: K-nearest Multi-agent Deep Reinforcement Learning for Collaborative
Tasks with a Variable Number of Agents
- arxiv url: http://arxiv.org/abs/2201.07092v1
- Date: Tue, 18 Jan 2022 16:14:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-19 14:44:48.043505
- Title: K-nearest Multi-agent Deep Reinforcement Learning for Collaborative
Tasks with a Variable Number of Agents
- Title(参考訳): エージェント数可変協調作業のためのk-nearest多エージェント深層強化学習
- Authors: Hamed Khorasgani, Haiyan Wang, Hsiu-Khuern Tang, Chetan Gupta
- Abstract要約: エージェント数の変化を考慮した多エージェント協調作業のための深層強化学習アルゴリズムを提案する。
実運用現場で現実的なシナリオを生成するために日立が開発した艦隊管理シミュレータを用いて,本アルゴリズムの適用例を示した。
- 参考スコア(独自算出の注目度): 13.110291070230815
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditionally, the performance of multi-agent deep reinforcement learning
algorithms are demonstrated and validated in gaming environments where we often
have a fixed number of agents. In many industrial applications, the number of
available agents can change at any given day and even when the number of agents
is known ahead of time, it is common for an agent to break during the operation
and become unavailable for a period of time. In this paper, we propose a new
deep reinforcement learning algorithm for multi-agent collaborative tasks with
a variable number of agents. We demonstrate the application of our algorithm
using a fleet management simulator developed by Hitachi to generate realistic
scenarios in a production site.
- Abstract(参考訳): 従来,多エージェント深部強化学習アルゴリズムの性能は,一定数のエージェントを持つゲーム環境で実証され,検証されてきた。
多くの産業アプリケーションでは、利用可能なエージェントの数はいつでも変化し、エージェントの数が事前に分かっている場合でも、操作中にエージェントが故障し、一定期間利用できなくなることが一般的である。
本稿では,多エージェント協調作業におけるエージェント数の変化を考慮した深層強化学習アルゴリズムを提案する。
本手法は,日立が開発したフリート管理シミュレータを用いて実運用環境での現実的なシナリオ生成を行う。
関連論文リスト
- Very Large-Scale Multi-Agent Simulation in AgentScope [112.98986800070581]
我々は,ユーザフレンドリーなマルチエージェントプラットフォームであるAgentScopeの新機能とコンポーネントを開発した。
高いスケーラビリティと高効率を実現するために,アクタをベースとした分散機構を提案する。
また、多数のエージェントを便利に監視し、管理するためのWebベースのインターフェースも提供します。
論文 参考訳(メタデータ) (2024-07-25T05:50:46Z) - EvoAgent: Towards Automatic Multi-Agent Generation via Evolutionary Algorithms [55.77492625524141]
EvoAgentは進化的アルゴリズムによって専門家エージェントをマルチエージェントシステムに自動的に拡張する汎用的な手法である。
EvoAgentは複数の専門家エージェントを自動生成し,LLMエージェントのタスク解決能力を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2024-06-20T11:49:23Z) - AutoAgents: A Framework for Automatic Agent Generation [27.74332323317923]
AutoAgentsは、さまざまなタスクに応じてAIチームを構築するために、複数の専門エージェントを適応的に生成し、コーディネートする革新的なフレームワークである。
各種ベンチマーク実験により,AutoAgentsは既存のマルチエージェント手法よりも一貫性と正確な解を生成することが示された。
論文 参考訳(メタデータ) (2023-09-29T14:46:30Z) - AgentVerse: Facilitating Multi-Agent Collaboration and Exploring
Emergent Behaviors [93.38830440346783]
本稿では,その構成をより高機能なシステムとして協調的に調整できるマルチエージェントフレームワークを提案する。
実験により,フレームワークが単一エージェントより優れたマルチエージェントグループを効果的に展開できることが実証された。
これらの振舞いの観点から、我々は、ポジティブなものを活用し、ネガティブなものを緩和し、マルチエージェントグループの協調可能性を改善するためのいくつかの戦略について議論する。
論文 参考訳(メタデータ) (2023-08-21T16:47:11Z) - MADiff: Offline Multi-agent Learning with Diffusion Models [79.18130544233794]
拡散モデル(DM)は、最近オフライン強化学習を含む様々なシナリオで大きな成功を収めた。
この問題に対処する新しい生成型マルチエージェント学習フレームワークであるMADiffを提案する。
本実験は,マルチエージェント学習タスクにおけるベースラインアルゴリズムと比較して,MADiffの優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-27T02:14:09Z) - SEA: A Spatially Explicit Architecture for Multi-Agent Reinforcement
Learning [14.935456456463731]
マルチエージェント強化学習のための空間情報抽出構造を提案する。
エージェントは、空間エンコーダデコーダ構造を通して、近隣とグローバル情報を効果的に共有することができる。
論文 参考訳(メタデータ) (2023-04-25T03:00:09Z) - Multi-agent Deep Covering Skill Discovery [50.812414209206054]
本稿では,複数エージェントの結合状態空間の予測被覆時間を最小化し,マルチエージェントオプションを構築するマルチエージェントDeep Covering Option Discoveryを提案する。
また、MARLプロセスにマルチエージェントオプションを採用するための新しいフレームワークを提案する。
提案アルゴリズムは,アテンション機構とエージェントの相互作用を効果的に把握し,マルチエージェントオプションの同定に成功した。
論文 参考訳(メタデータ) (2022-10-07T00:40:59Z) - Transferable Multi-Agent Reinforcement Learning with Dynamic
Participating Agents [19.52531351740528]
集中学習中にエージェントの数を変動させることができる数ショット学習アルゴリズムを用いたネットワークアーキテクチャを提案する。
提案するネットワークアーキテクチャとアルゴリズムを用いることで,新たなエージェントが加わった場合のモデル適応がベースラインの100倍以上の速度で実現できることを示す。
論文 参考訳(メタデータ) (2022-08-04T03:16:42Z) - Meta-CPR: Generalize to Unseen Large Number of Agents with Communication
Pattern Recognition Module [29.75594940509839]
エージェント数が異なるマルチエージェント環境をマルチタスク問題として定式化する。
本稿では,メタ強化学習(meta-RL)フレームワークを提案する。
提案フレームワークはメタ学習型通信パターン認識(CPR)モジュールを用いて通信の振る舞いを識別する。
論文 参考訳(メタデータ) (2021-12-14T08:23:04Z) - Scalable Multi-Agent Inverse Reinforcement Learning via
Actor-Attention-Critic [54.2180984002807]
マルチエージェント逆逆強化学習 (MA-AIRL) は, 単エージェントAIRLをマルチエージェント問題に適用する最近の手法である。
本稿では,従来の手法よりもサンプル効率が高く,スケーラブルなマルチエージェント逆RLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-24T20:30:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。