論文の概要: Cooperative Patrol Routing: Optimizing Urban Crime Surveillance through Multi-Agent Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2501.08020v1
- Date: Tue, 14 Jan 2025 11:20:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-15 13:25:23.142779
- Title: Cooperative Patrol Routing: Optimizing Urban Crime Surveillance through Multi-Agent Reinforcement Learning
- Title(参考訳): 協力型パトロールルーティング:マルチエージェント強化学習による都市犯罪監視の最適化
- Authors: Juan Palma-Borda, Eduardo Guzmán, María-Victoria Belmonte,
- Abstract要約: 都市環境における予測不可能なパトロールルートを計画するためのマルチエージェント強化学習(MARL)モデルを提案する。
このモデルは、マラガの3つの中規模地区で警察のパトロールルートを最適化するためにテストされている。
本稿では,本モデルが生成した経路のカバレッジ性能を評価するための新しい指標であるカバレッジ指標を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The effective design of patrol strategies is a difficult and complex problem, especially in medium and large areas. The objective is to plan, in a coordinated manner, the optimal routes for a set of patrols in a given area, in order to achieve maximum coverage of the area, while also trying to minimize the number of patrols. In this paper, we propose a multi-agent reinforcement learning (MARL) model, based on a decentralized partially observable Markov decision process, to plan unpredictable patrol routes within an urban environment represented as an undirected graph. The model attempts to maximize a target function that characterizes the environment within a given time frame. Our model has been tested to optimize police patrol routes in three medium-sized districts of the city of Malaga. The aim was to maximize surveillance coverage of the most crime-prone areas, based on actual crime data in the city. To address this problem, several MARL algorithms have been studied, and among these the Value Decomposition Proximal Policy Optimization (VDPPO) algorithm exhibited the best performance. We also introduce a novel metric, the coverage index, for the evaluation of the coverage performance of the routes generated by our model. This metric is inspired by the predictive accuracy index (PAI), which is commonly used in criminology to detect hotspots. Using this metric, we have evaluated the model under various scenarios in which the number of agents (or patrols), their starting positions, and the level of information they can observe in the environment have been modified. Results show that the coordinated routes generated by our model achieve a coverage of more than $90\%$ of the $3\%$ of graph nodes with the highest crime incidence, and $65\%$ for $20\%$ of these nodes; $3\%$ and $20\%$ represent the coverage standards for police resource allocation.
- Abstract(参考訳): パトロール戦略の効果的な設計は、特に中・大規模地域では困難で複雑な問題である。
目的は、パトロールの数を最小化しつつ、地域を最大限にカバーするために、特定のエリアにおけるパトロールのセットに最適なルートを計画することである。
本稿では,分散化された部分観測可能なマルコフ決定プロセスに基づくマルチエージェント強化学習(MARL)モデルを提案する。
モデルは、所定の時間枠内の環境を特徴付けるターゲット関数を最大化しようとする。
私たちのモデルは、マラガの3つの中規模地区で警察パトロールルートを最適化するためにテストされています。
その目的は、市内の実際の犯罪データに基づいて、最も犯罪の多い地域の監視範囲を最大化することであった。
この問題に対処するため、いくつかのMARLアルゴリズムが研究され、これらのうち、VDPPO(Value Decomposition Proximal Policy Optimization)アルゴリズムが最高の性能を示した。
また,本モデルが生成した経路のカバレッジ性能を評価するための新しい指標であるカバレッジ指標も導入する。
この指標は、ホットスポットの検出に一般的に使用される予測精度指数(PAI)にインスパイアされている。
この指標を用いて, エージェント数(パトロール), 開始位置, 環境下で観測できる情報のレベルが変化した様々なシナリオ下で, モデルの評価を行った。
その結果、我々のモデルが生成した座標経路は、犯罪発生率が最も高いグラフノードの$3\%$の90\%$と、これらのノードの$20\%$の65\%$、警察リソース割り当てのカバレッジ標準である$3\%$と$20\%$をカバーしていることがわかった。
関連論文リスト
- Patrol Security Game: Defending Against Adversary with Freedom in Attack Timing, Location, and Duration [4.765278970103286]
パトロール・セキュリティ・ゲーム(Patrol Security Game、PSG)は、ロボットパトロール問題である。
我々の目標は、攻撃者の時間的地平線を最小化する合成スケジュールを考案することである。
論文 参考訳(メタデータ) (2024-10-21T02:53:18Z) - Truncating Trajectories in Monte Carlo Policy Evaluation: an Adaptive Approach [51.76826149868971]
モンテカルロシミュレーションによる政策評価は多くのMC強化学習(RL)アルゴリズムの中核にある。
本研究では,異なる長さの軌跡を用いた回帰推定器の平均二乗誤差のサロゲートとして品質指標を提案する。
本稿では,Robust and Iterative Data Collection Strategy Optimization (RIDO) という適応アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-17T11:47:56Z) - Graph Protection under Multiple Simultaneous Attacks: A Heuristic Approach [41.94295877935867]
この研究は、グラフを用いてモデル化されたネットワークのノードに対する同時攻撃から保護するための効果的なメタヒューリスティックなアプローチの開発に焦点を当てる。
具体的には、グラフ上のよく知られたローマ支配問題の一般化である$k$-strong Roman支配問題に焦点を当てる。
本稿では,準実現可能性の概念を導入して,その実現可能性を確認する可変近傍探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-25T18:46:13Z) - When Demonstrations Meet Generative World Models: A Maximum Likelihood
Framework for Offline Inverse Reinforcement Learning [62.00672284480755]
本稿では, 専門家エージェントから, 一定の有限個の実演において観測された動作を過小評価する報酬と環境力学の構造を復元することを目的とする。
タスクを実行するための正確な専門知識モデルは、臨床的意思決定や自律運転のような安全に敏感な応用に応用できる。
論文 参考訳(メタデータ) (2023-02-15T04:14:20Z) - GoRela: Go Relative for Viewpoint-Invariant Motion Forecasting [121.42898228997538]
精度や一般化を犠牲にすることなく、全てのエージェントとマップに対して効率的な共有符号化を提案する。
不均一空間グラフにおけるエージェントとマップ要素間の幾何学的関係を表現するために、ペアワイズ相対的な位置符号化を利用する。
我々のデコーダは視点非依存であり、レーングラフ上でエージェント目標を予測し、多様かつコンテキスト対応のマルチモーダル予測を可能にする。
論文 参考訳(メタデータ) (2022-11-04T16:10:50Z) - Nearly Optimal Latent State Decoding in Block MDPs [74.51224067640717]
エピソードブロック MDP では、意思決定者は少数の潜在状態から生成される豊富な観測やコンテキストにアクセスすることができる。
まず、固定動作ポリシーに基づいて生成されたデータに基づいて、潜時状態復号関数を推定することに興味がある。
次に、報酬のないフレームワークにおいて、最適に近いポリシーを学習する問題について研究する。
論文 参考訳(メタデータ) (2022-08-17T18:49:53Z) - Learning from eXtreme Bandit Feedback [105.0383130431503]
非常に大きな行動空間の設定における帯域幅フィードバックからのバッチ学習の問題について検討する。
本稿では,より有利なバイアス分散状態で動作する選択的重要度サンプリング推定器(sIS)を提案する。
我々は,この推定器を,XMCタスクの帯域幅フィードバックから学習するために,新しいアルゴリズム手法であるポリシ・オプティマイズ・フォー・エクストリーム・モデル (POXM) に採用する。
論文 参考訳(メタデータ) (2020-09-27T20:47:25Z) - POMP: Pomcp-based Online Motion Planning for active visual search in
indoor environments [89.43830036483901]
本稿では, 屋内環境におけるオブジェクトのアクティブビジュアルサーチ(AVS)の最適ポリシーを, オンライン設定で学習する問題に焦点をあてる。
提案手法はエージェントの現在のポーズとRGB-Dフレームを入力として使用する。
提案手法を利用可能なAVDベンチマークで検証し,平均成功率0.76,平均パス長17.1とした。
論文 参考訳(メタデータ) (2020-09-17T08:23:50Z) - Multi-officer Routing for Patrolling High Risk Areas Jointly Learned
from Check-ins, Crime and Incident Response Data [6.295207672539996]
我々は、チェックイン、犯罪、インシデント対応データ、およびPOI情報を用いて、複数の警察官に対する動的犯罪パトロール計画問題を定式化する。
本稿では,可能解の表現のための共同学習法と非ランダム最適化法を提案する。
提案手法の性能検証と実世界のデータセットを用いたいくつかの最先端手法との比較を行った。
論文 参考訳(メタデータ) (2020-07-31T23:33:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。