論文の概要: A novel approach for multi-agent cooperative pursuit to capture grouped
evaders
- arxiv url: http://arxiv.org/abs/2006.01022v2
- Date: Sat, 27 Jun 2020 10:25:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-26 06:58:03.763392
- Title: A novel approach for multi-agent cooperative pursuit to capture grouped
evaders
- Title(参考訳): 集団避難者獲得のためのマルチエージェント協調追跡のための新しいアプローチ
- Authors: Muhammad Zuhair Qadir, Songhao Piao, Haiyang Jiang and Mohammed El
Habib Souidi
- Abstract要約: 自己組織化特徴写像(SOFM)と強化学習に基づく移動型マルチエージェント探索手法を提案する。
実験の結果,この手法は移動体エージェントがより効果的にエバダを捕獲できることが示唆された。
- 参考スコア(独自算出の注目度): 3.055209801620639
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: An approach of mobile multi-agent pursuit based on application of
self-organizing feature map (SOFM) and along with that reinforcement learning
based on agent group role membership function (AGRMF) model is proposed. This
method promotes dynamic organization of the pursuers' groups and also makes
pursuers' group evader according to their desire based on SOFM and AGRMF
techniques. This helps to overcome the shortcomings of the pursuers that they
cannot fully reorganize when the goal is too independent in process of AGRMF
models operation. Besides, we also discuss a new reward function. After the
formation of the group, reinforcement learning is applied to get the optimal
solution for each agent. The results of each step in capturing process will
finally affect the AGR membership function to speed up the convergence of the
competitive neural network. The experiments result shows that this approach is
more effective for the mobile agents to capture evaders.
- Abstract(参考訳): 自己組織的特徴マップ(sofm)の応用とエージェント・グループ・ロール・メンバシップ・関数(agrmf)モデルに基づく強化学習に基づく移動型マルチエージェント追跡手法を提案する。
本手法は, 追従者のグループの動的組織化を促進するとともに, SOFM および AGRMF 技術に基づく追従者のグループ回避を実現する。
これにより、AGRMFモデル運用のプロセスにおいて、目標が独立的すぎる場合に完全に再編成できないというトラッカーの欠点を克服するのに役立つ。
また,新たな報酬関数についても論じる。
グループ形成後、各エージェントに最適な解を得るために強化学習を適用する。
キャプチャプロセスの各ステップの結果は、最終的にAGRメンバシップ機能に影響を与え、競合するニューラルネットワークの収束をスピードアップする。
実験結果から, 移動体エージェントがより効果的にエバダを捕獲できることが示唆された。
関連論文リスト
- Joint Intrinsic Motivation for Coordinated Exploration in Multi-Agent
Deep Reinforcement Learning [0.0]
本稿では,エージェントが一括して斬新な行動を示すような報奨戦略を提案する。
ジムは連続した環境で機能するように設計されたノベルティの集中的な尺度に基づいて共同軌道に報いる。
その結果、最適戦略が高レベルの調整を必要とするタスクの解決には、共同探索が不可欠であることが示唆された。
論文 参考訳(メタデータ) (2024-02-06T13:02:00Z) - Investigate-Consolidate-Exploit: A General Strategy for Inter-Task Agent
Self-Evolution [92.84441068115517]
Investigate-Consolidate-Exploit(ICE)は、AIエージェントの適応性と柔軟性を高めるための新しい戦略である。
ICEは、真の自己進化のためのタスク間の知識の伝達を促進する。
XAgentフレームワークに関する我々の実験は、ICEの有効性を示し、API呼び出しを最大80%削減する。
論文 参考訳(メタデータ) (2024-01-25T07:47:49Z) - Goals are Enough: Inducing AdHoc cooperation among unseen Multi-Agent
systems in IMFs [5.187177458114381]
インテントベースのマネジメントは、次世代モバイルネットワークにおける顧客の期待を達成する上で重要な役割を果たす。
従来の手法では、それぞれの期待を独立して扱う傾向があるため、効率的な資源管理を行うことはできない。
本稿では,AIをベースとしたスーパーバイザエージェントを活用して,事前学習エージェントを並列に編成するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-26T14:21:36Z) - Dynamic LLM-Agent Network: An LLM-agent Collaboration Framework with
Agent Team Optimization [59.39113350538332]
大規模言語モデル(LLM)エージェントは幅広いタスクで有効であることが示されており、複数のLLMエージェントを組み込むことで、その性能をさらに向上することができる。
既存のアプローチでは、固定されたエージェントセットを使用して静的アーキテクチャで相互に相互作用する。
我々は、推論やコード生成といった複雑なタスクにおいて、LLM-agentコラボレーションのためにDynamic LLM-Agent Network(textbfDyLAN$)というフレームワークを構築します。
論文 参考訳(メタデータ) (2023-10-03T16:05:48Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - AgentVerse: Facilitating Multi-Agent Collaboration and Exploring
Emergent Behaviors [93.38830440346783]
本稿では,その構成をより高機能なシステムとして協調的に調整できるマルチエージェントフレームワークを提案する。
実験により,フレームワークが単一エージェントより優れたマルチエージェントグループを効果的に展開できることが実証された。
これらの振舞いの観点から、我々は、ポジティブなものを活用し、ネガティブなものを緩和し、マルチエージェントグループの協調可能性を改善するためのいくつかの戦略について議論する。
論文 参考訳(メタデータ) (2023-08-21T16:47:11Z) - Learning to Learn Group Alignment: A Self-Tuning Credo Framework with
Multiagent Teams [1.370633147306388]
マルチエージェントチームを持つ人口の混合インセンティブは、完全に協調したシステムよりも有利であることが示されている。
個人学習エージェントが報酬関数の様々な部分を通してインセンティブの構成を自己制御する枠組みを提案する。
論文 参考訳(メタデータ) (2023-04-14T18:16:19Z) - A Reinforcement Learning-assisted Genetic Programming Algorithm for Team
Formation Problem Considering Person-Job Matching [70.28786574064694]
解の質を高めるために強化学習支援遺伝的プログラミングアルゴリズム(RL-GP)を提案する。
効率的な学習を通じて得られる超ヒューリスティックなルールは、プロジェクトチームを形成する際の意思決定支援として利用することができる。
論文 参考訳(メタデータ) (2023-04-08T14:32:12Z) - BGC: Multi-Agent Group Belief with Graph Clustering [1.9949730506194252]
エージェントがコミュニケーションなしで情報を交換できる半通信方式を提案する。
近接するエージェントを小さなグループに分割し,グループ内のエージェントの信念を最小化するグループベースのモジュールを提案する。
その結果,提案手法はSMACベンチマークの大幅な改善を実現していることがわかった。
論文 参考訳(メタデータ) (2020-08-20T07:07:20Z) - Reward Machines for Cooperative Multi-Agent Reinforcement Learning [30.84689303706561]
協調型マルチエージェント強化学習において、エージェントの集合は共通の目標を達成するために共有環境で対話することを学ぶ。
本稿では、報酬関数の構造化表現として使われる単純な機械である報酬機械(RM)を用いて、チームのタスクを符号化する手法を提案する。
マルチエージェント設定におけるRMの新たな解釈は、要求されるチームメイト相互依存性を明示的に符号化し、チームレベルのタスクを個々のエージェントのサブタスクに分解することを可能にする。
論文 参考訳(メタデータ) (2020-07-03T23:08:14Z) - Model-based Reinforcement Learning for Decentralized Multiagent
Rendezvous [66.6895109554163]
目標を他のエージェントと整合させる人間の能力の下にあるのは、他人の意図を予測し、自分たちの計画を積極的に更新する能力である。
分散型マルチエージェントレンデブーのためのモデルに基づく強化学習手法である階層型予測計画(HPP)を提案する。
論文 参考訳(メタデータ) (2020-03-15T19:49:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。