論文の概要: A novel approach for multi-agent cooperative pursuit to capture grouped
evaders
- arxiv url: http://arxiv.org/abs/2006.01022v2
- Date: Sat, 27 Jun 2020 10:25:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-26 06:58:03.763392
- Title: A novel approach for multi-agent cooperative pursuit to capture grouped
evaders
- Title(参考訳): 集団避難者獲得のためのマルチエージェント協調追跡のための新しいアプローチ
- Authors: Muhammad Zuhair Qadir, Songhao Piao, Haiyang Jiang and Mohammed El
Habib Souidi
- Abstract要約: 自己組織化特徴写像(SOFM)と強化学習に基づく移動型マルチエージェント探索手法を提案する。
実験の結果,この手法は移動体エージェントがより効果的にエバダを捕獲できることが示唆された。
- 参考スコア(独自算出の注目度): 3.055209801620639
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: An approach of mobile multi-agent pursuit based on application of
self-organizing feature map (SOFM) and along with that reinforcement learning
based on agent group role membership function (AGRMF) model is proposed. This
method promotes dynamic organization of the pursuers' groups and also makes
pursuers' group evader according to their desire based on SOFM and AGRMF
techniques. This helps to overcome the shortcomings of the pursuers that they
cannot fully reorganize when the goal is too independent in process of AGRMF
models operation. Besides, we also discuss a new reward function. After the
formation of the group, reinforcement learning is applied to get the optimal
solution for each agent. The results of each step in capturing process will
finally affect the AGR membership function to speed up the convergence of the
competitive neural network. The experiments result shows that this approach is
more effective for the mobile agents to capture evaders.
- Abstract(参考訳): 自己組織的特徴マップ(sofm)の応用とエージェント・グループ・ロール・メンバシップ・関数(agrmf)モデルに基づく強化学習に基づく移動型マルチエージェント追跡手法を提案する。
本手法は, 追従者のグループの動的組織化を促進するとともに, SOFM および AGRMF 技術に基づく追従者のグループ回避を実現する。
これにより、AGRMFモデル運用のプロセスにおいて、目標が独立的すぎる場合に完全に再編成できないというトラッカーの欠点を克服するのに役立つ。
また,新たな報酬関数についても論じる。
グループ形成後、各エージェントに最適な解を得るために強化学習を適用する。
キャプチャプロセスの各ステップの結果は、最終的にAGRメンバシップ機能に影響を与え、競合するニューラルネットワークの収束をスピードアップする。
実験結果から, 移動体エージェントがより効果的にエバダを捕獲できることが示唆された。
関連論文リスト
- From Novice to Expert: LLM Agent Policy Optimization via Step-wise Reinforcement Learning [62.54484062185869]
本稿では,エージェントの強化学習プロセスの最適化にステップワイド報酬を利用するStepAgentを紹介する。
エージェント反射とポリシー調整を容易にする暗黙の逆・逆の強化学習手法を提案する。
論文 参考訳(メタデータ) (2024-11-06T10:35:11Z) - Gödel Agent: A Self-Referential Agent Framework for Recursive Self-Improvement [117.94654815220404]
G"odel AgentはG"odelマシンにインスパイアされた自己進化型フレームワークである。
G"odel Agentは、パフォーマンス、効率、一般化性において手作業によるエージェントを上回る、継続的な自己改善を実現することができる。
論文 参考訳(メタデータ) (2024-10-06T10:49:40Z) - Cooperative Reward Shaping for Multi-Agent Pathfinding [4.244426154524592]
MAPF(Multi-Agent Pathfinding)の主な目的は、全てのエージェントに対して効率的で競合のないパスを計画することである。
従来のマルチエージェントパス計画アルゴリズムは、複数のエージェントに対して効率的な分散パス計画を実現するのに苦労する。
独立Q-Learning(IQL)に基づく独自の報酬形成手法を紹介する。
論文 参考訳(メタデータ) (2024-07-15T02:44:41Z) - Efficient Adaptation in Mixed-Motive Environments via Hierarchical Opponent Modeling and Planning [51.52387511006586]
本稿では,HOP(Hierarchical Opponent Modeling and Planning)を提案する。
HOPは階層的に2つのモジュールから構成される: 相手の目標を推論し、対応する目標条件のポリシーを学ぶ、反対モデリングモジュール。
HOPは、さまざまな未確認エージェントと相互作用する際、優れた少数ショット適応能力を示し、セルフプレイのシナリオで優れている。
論文 参考訳(メタデータ) (2024-06-12T08:48:06Z) - Joint Intrinsic Motivation for Coordinated Exploration in Multi-Agent
Deep Reinforcement Learning [0.0]
本稿では,エージェントが一括して斬新な行動を示すような報奨戦略を提案する。
ジムは連続した環境で機能するように設計されたノベルティの集中的な尺度に基づいて共同軌道に報いる。
その結果、最適戦略が高レベルの調整を必要とするタスクの解決には、共同探索が不可欠であることが示唆された。
論文 参考訳(メタデータ) (2024-02-06T13:02:00Z) - Investigate-Consolidate-Exploit: A General Strategy for Inter-Task Agent
Self-Evolution [92.84441068115517]
Investigate-Consolidate-Exploit(ICE)は、AIエージェントの適応性と柔軟性を高めるための新しい戦略である。
ICEは、真の自己進化のためのタスク間の知識の伝達を促進する。
XAgentフレームワークに関する我々の実験は、ICEの有効性を示し、API呼び出しを最大80%削減する。
論文 参考訳(メタデータ) (2024-01-25T07:47:49Z) - AgentVerse: Facilitating Multi-Agent Collaboration and Exploring
Emergent Behaviors [93.38830440346783]
本稿では,その構成をより高機能なシステムとして協調的に調整できるマルチエージェントフレームワークを提案する。
実験により,フレームワークが単一エージェントより優れたマルチエージェントグループを効果的に展開できることが実証された。
これらの振舞いの観点から、我々は、ポジティブなものを活用し、ネガティブなものを緩和し、マルチエージェントグループの協調可能性を改善するためのいくつかの戦略について議論する。
論文 参考訳(メタデータ) (2023-08-21T16:47:11Z) - Learning to Learn Group Alignment: A Self-Tuning Credo Framework with
Multiagent Teams [1.370633147306388]
マルチエージェントチームを持つ人口の混合インセンティブは、完全に協調したシステムよりも有利であることが示されている。
個人学習エージェントが報酬関数の様々な部分を通してインセンティブの構成を自己制御する枠組みを提案する。
論文 参考訳(メタデータ) (2023-04-14T18:16:19Z) - BGC: Multi-Agent Group Belief with Graph Clustering [1.9949730506194252]
エージェントがコミュニケーションなしで情報を交換できる半通信方式を提案する。
近接するエージェントを小さなグループに分割し,グループ内のエージェントの信念を最小化するグループベースのモジュールを提案する。
その結果,提案手法はSMACベンチマークの大幅な改善を実現していることがわかった。
論文 参考訳(メタデータ) (2020-08-20T07:07:20Z) - Reward Machines for Cooperative Multi-Agent Reinforcement Learning [30.84689303706561]
協調型マルチエージェント強化学習において、エージェントの集合は共通の目標を達成するために共有環境で対話することを学ぶ。
本稿では、報酬関数の構造化表現として使われる単純な機械である報酬機械(RM)を用いて、チームのタスクを符号化する手法を提案する。
マルチエージェント設定におけるRMの新たな解釈は、要求されるチームメイト相互依存性を明示的に符号化し、チームレベルのタスクを個々のエージェントのサブタスクに分解することを可能にする。
論文 参考訳(メタデータ) (2020-07-03T23:08:14Z) - Model-based Reinforcement Learning for Decentralized Multiagent
Rendezvous [66.6895109554163]
目標を他のエージェントと整合させる人間の能力の下にあるのは、他人の意図を予測し、自分たちの計画を積極的に更新する能力である。
分散型マルチエージェントレンデブーのためのモデルに基づく強化学習手法である階層型予測計画(HPP)を提案する。
論文 参考訳(メタデータ) (2020-03-15T19:49:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。