論文の概要: Multi-Agent Patrolling with Battery Constraints through Deep
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2212.08230v1
- Date: Fri, 16 Dec 2022 01:38:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 14:53:33.564988
- Title: Multi-Agent Patrolling with Battery Constraints through Deep
Reinforcement Learning
- Title(参考訳): 深層強化学習によるバッテリ制約付きマルチエージェントパトロール
- Authors: Chenhao Tong, Aaron Harwood, Maria A. Rodriguez, Richard O. Sinnott
- Abstract要約: 分散モデルのない深層強化学習に基づくマルチエージェントパトロール戦略を提案する。
エージェントは、自身の環境観察と共有情報に基づいて、ローカルに意思決定を行う。
全てのパトロールエージェントが同一のポリシーを持つ同質なマルチエージェントアーキテクチャが提案されている。
- 参考スコア(独自算出の注目度): 0.5008597638379226
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Autonomous vehicles are suited for continuous area patrolling problems.
However, finding an optimal patrolling strategy can be challenging for many
reasons. Firstly, patrolling environments are often complex and can include
unknown and evolving environmental factors. Secondly, autonomous vehicles can
have failures or hardware constraints such as limited battery lives.
Importantly, patrolling large areas often requires multiple agents that need to
collectively coordinate their actions. In this work, we consider these
limitations and propose an approach based on a distributed, model-free deep
reinforcement learning based multi-agent patrolling strategy. In this approach,
agents make decisions locally based on their own environmental observations and
on shared information. In addition, agents are trained to automatically
recharge themselves when required to support continuous collective patrolling.
A homogeneous multi-agent architecture is proposed, where all patrolling agents
have an identical policy. This architecture provides a robust patrolling system
that can tolerate agent failures and allow supplementary agents to be added to
replace failed agents or to increase the overall patrol performance. This
performance is validated through experiments from multiple perspectives,
including the overall patrol performance, the efficiency of the battery
recharging strategy, the overall robustness of the system, and the agents'
ability to adapt to environment dynamics.
- Abstract(参考訳): 自動運転車は、継続的な地域パトロール問題に向いている。
しかし、多くの理由から最適なパトロール戦略を見つけることは困難である。
第一に、パトロール環境は複雑であり、未知の環境要因を含むことがある。
第二に、自動運転車は故障やバッテリー寿命の制限などのハードウェア上の制約がある。
重要なことに、大きなエリアをパトロールするには、複数のエージェントが必要である。
本研究では,これらの制約を考慮し,分散モデルフリーな深層強化学習に基づくマルチエージェントパトロール戦略に基づくアプローチを提案する。
このアプローチでは,エージェントは自身の環境観測や共有情報に基づいてローカルに意思決定を行う。
さらに、継続的な集団パトロールを支援するために、エージェントは自動的に充電するように訓練される。
全てのパトロールエージェントが同一のポリシーを持つ同質なマルチエージェントアーキテクチャを提案する。
このアーキテクチャは、エージェントの故障を許容し、失敗したエージェントを置き換えるために補助エージェントを追加したり、全体的なパトロール性能を向上させるための堅牢なパトロールシステムを提供する。
この性能は、パトロール性能、バッテリ充電戦略の効率性、システムの全体的な堅牢性、そしてエージェントが環境力学に適応する能力など、様々な観点から実験によって検証される。
関連論文リスト
- Improving the Generalization of Unseen Crowd Behaviors for Reinforcement Learning based Local Motion Planners [36.684452789236914]
現在の強化学習ベースのモーションプランナーは、歩行者の動きをシミュレートするための単一のポリシーに依存している。
本稿では,情報理論の目的を最大化することにより,エージェントの多様性を高める効率的な手法を提案する。
未確認の群衆に対するエージェントの堅牢性を評価するために,歩行者の群集行動に触発された多様なシナリオを提案する。
論文 参考訳(メタデータ) (2024-10-16T04:46:21Z) - Multi-Agent Reinforcement Learning for Joint Police Patrol and Dispatch [13.336551874123796]
本稿では,複数エージェントのパトロールとディスパッチを協調的に最適化し,迅速な応答時間を示すポリシーを学習するための新しい手法を提案する。
本手法は,各パトロールラーを独立Qラーナー(エージェント)として,状態-作用値を表す共有深度Q-ネットワークで処理する。
この異種多エージェント強化学習アプローチは,パトロールやディスパッチのみを最適化するポリシを学習可能であることを実証する。
論文 参考訳(メタデータ) (2024-09-03T19:19:57Z) - KoMA: Knowledge-driven Multi-agent Framework for Autonomous Driving with Large Language Models [15.951550445568605]
自律エージェントとしての大規模言語モデル(LLM)は、知識駆動的な方法で現実の課題に取り組むための新しい道筋を提供する。
我々は,マルチエージェントインタラクション,マルチステップ計画,共有メモリ,ランキングベースのリフレクションモジュールからなるKoMAフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-19T12:13:08Z) - Autonomous Vehicle Patrolling Through Deep Reinforcement Learning:
Learning to Communicate and Cooperate [3.79830302036482]
最適なパトロール戦略を見つけることは、風や風景のような未知の環境要因のために困難である。
エージェントは、障害が発生した場合にパトロール中に協力するための独自の通信プロトコルを開発するように訓練される。
この解はシミュレーション実験によって検証され、様々な観点から最先端のパトロールソリューションと比較される。
論文 参考訳(メタデータ) (2024-01-28T14:29:30Z) - Safe Model-Based Multi-Agent Mean-Field Reinforcement Learning [48.667697255912614]
平均場強化学習は、同一エージェントの無限集団と相互作用する代表エージェントのポリシーに対処する。
モデルベースの平均場強化学習アルゴリズムであるSafe-M$3$-UCRLを提案する。
本アルゴリズムは,低需要領域におけるサービスアクセシビリティを確保しつつ,重要な領域における需要を効果的に満たす。
論文 参考訳(メタデータ) (2023-06-29T15:57:07Z) - Guaranteed Discovery of Controllable Latent States with Multi-Step
Inverse Models [51.754160866582005]
エージェント制御可能な状態探索アルゴリズム(AC-State)
アルゴリズムは多段階の逆モデル(遠方の観測から行動を予測する)と情報ボトルネックから構成される。
本稿では,3つの領域において制御可能な潜伏状態の発見を実証する。ロボットアームの局所化,他のエージェントとともに迷路を探索し,Matterportハウスシミュレーターをナビゲートする。
論文 参考訳(メタデータ) (2022-07-17T17:06:52Z) - Coach-assisted Multi-Agent Reinforcement Learning Framework for
Unexpected Crashed Agents [120.91291581594773]
本稿では,予期せぬクラッシュを伴う協調型マルチエージェント強化学習システムの公式な定式化について述べる。
本稿では,教師支援型多エージェント強化学習フレームワークを提案する。
私たちの知る限りでは、この研究はマルチエージェントシステムにおける予期せぬクラッシュを初めて研究したものです。
論文 参考訳(メタデータ) (2022-03-16T08:22:45Z) - Cooperative Exploration for Multi-Agent Deep Reinforcement Learning [127.4746863307944]
深層強化学習のための協調型マルチエージェント探索(CMAE)を提案する。
ゴールは正規化エントロピーに基づく手法により、複数の射影状態空間から選択される。
CMAEが様々なタスクのベースラインを一貫して上回っていることを実証する。
論文 参考訳(メタデータ) (2021-07-23T20:06:32Z) - Explore and Control with Adversarial Surprise [78.41972292110967]
強化学習(Reinforcement Learning, RL)は、目標指向のポリシーを学習するためのフレームワークである。
本稿では,RLエージェントが経験した驚きの量と競合する2つのポリシーを相殺する対戦ゲームに基づく,新しい教師なしRL手法を提案する。
本手法は, 明確な相転移を示すことによって, 複雑なスキルの出現につながることを示す。
論文 参考訳(メタデータ) (2021-07-12T17:58:40Z) - Heterogeneous Multi-Agent Reinforcement Learning for Unknown Environment
Mapping [0.0]
異種エージェントのチームが未知の環境をカバーするための分散制御ポリシーを学習できるようにするアクター批判アルゴリズムを提案する。
このタスクは、無人航空機のチームを配置することで危険地域における状況認識を高めたい国家の安全と緊急対応組織に関心を寄せている。
論文 参考訳(メタデータ) (2020-10-06T12:23:05Z) - ReLMoGen: Leveraging Motion Generation in Reinforcement Learning for
Mobile Manipulation [99.2543521972137]
ReLMoGenは、サブゴールを予測するための学習されたポリシーと、これらのサブゴールに到達するために必要な動作を計画し実行するためのモーションジェネレータを組み合わせたフレームワークである。
本手法は,フォトリアリスティック・シミュレーション環境における7つのロボットタスクの多種多様なセットをベンチマークする。
ReLMoGenは、テスト時に異なるモーションジェネレータ間で顕著な転送可能性を示し、実際のロボットに転送する大きな可能性を示している。
論文 参考訳(メタデータ) (2020-08-18T08:05:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。