論文の概要: Patrol Security Game: Defending Against Adversary with Freedom in Attack Timing, Location, and Duration
- arxiv url: http://arxiv.org/abs/2410.15600v1
- Date: Mon, 21 Oct 2024 02:53:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-22 13:16:27.868329
- Title: Patrol Security Game: Defending Against Adversary with Freedom in Attack Timing, Location, and Duration
- Title(参考訳): パトロール・セキュリティゲーム:攻撃のタイミング、場所、期間における自由な敵に対する防御
- Authors: Hao-Tsung Yang, Ting-Kai Weng, Ting-Yu Chang, Kin Sum Liu, Shan Lin, Jie Gao, Shih-Yu Tsai,
- Abstract要約: パトロール・セキュリティ・ゲーム(Patrol Security Game、PSG)は、ロボットパトロール問題である。
我々の目標は、攻撃者の時間的地平線を最小化する合成スケジュールを考案することである。
- 参考スコア(独自算出の注目度): 4.765278970103286
- License:
- Abstract: We explored the Patrol Security Game (PSG), a robotic patrolling problem modeled as an extensive-form Stackelberg game, where the attacker determines the timing, location, and duration of their attack. Our objective is to devise a patrolling schedule with an infinite time horizon that minimizes the attacker's payoff. We demonstrated that PSG can be transformed into a combinatorial minimax problem with a closed-form objective function. By constraining the defender's strategy to a time-homogeneous first-order Markov chain (i.e., the patroller's next move depends solely on their current location), we proved that the optimal solution in cases of zero penalty involves either minimizing the expected hitting time or return time, depending on the attacker model, and that these solutions can be computed efficiently. Additionally, we observed that increasing the randomness in the patrol schedule reduces the attacker's expected payoff in high-penalty cases. However, the minimax problem becomes non-convex in other scenarios. To address this, we formulated a bi-criteria optimization problem incorporating two objectives: expected maximum reward and entropy. We proposed three graph-based algorithms and one deep reinforcement learning model, designed to efficiently balance the trade-off between these two objectives. Notably, the third algorithm can identify the optimal deterministic patrol schedule, though its runtime grows exponentially with the number of patrol spots. Experimental results validate the effectiveness and scalability of our solutions, demonstrating that our approaches outperform state-of-the-art baselines on both synthetic and real-world crime datasets.
- Abstract(参考訳): パトロール・セキュリティ・ゲーム (PSG) は、攻撃者が攻撃のタイミング、位置、期間を決定する広い形式のスタックルバーグゲームとしてモデル化されたロボットパトロール問題である。
我々の目標は、攻撃者の支払いを最小限に抑える無限の時間地平線でパトロールスケジュールを考案することである。
我々はPSGが閉形式目的関数を持つ組合せミニマックス問題に変換可能であることを示した。
防御者の戦略を時間的一様一階マルコフ連鎖(つまり、パトロールの次の動きは現在の位置のみに依存する)に制約することにより、ゼロペナルティの場合の最適解は、攻撃者モデルによって予測されるヒット時間や戻り時間を最小化し、これらの解を効率的に計算できることを証明した。
さらに,パトロールスケジュールにおける無作為性の増加は,高所得者に対する攻撃者の期待の支払いを減少させることを示した。
しかし、ミニマックス問題は他のシナリオでは非凸となる。
これを解決するために,期待最大報酬とエントロピーの2つの目的を取り入れた双基準最適化問題を定式化した。
この2つの目的間のトレードオフを効率的にバランスさせるために,3つのグラフベースアルゴリズムと1つの深層強化学習モデルを提案した。
特に、第3のアルゴリズムは最適な決定論的パトロールスケジュールを特定できるが、その実行時間はパトロールスポットの数とともに指数関数的に増加する。
実験により,提案手法の有効性とスケーラビリティを検証し,本手法が実世界および実世界の犯罪データセットに対して,最先端のベースラインより優れていることを示した。
関連論文リスト
- Solving a Stackelberg Game on Transportation Networks in a Dynamic Crime Scenario: A Mixed Approach on Multi-Layer Networks [7.717719152704306]
警察のリソースが限られている犯罪者の割り込みは、時間とともに犯罪が場所を変えるため、難しい作業である。
我々は,攻撃者,守備者双方の動きを追跡する階層グラフの概念を考察する。
我々は,層状ネットワーク上に近似アルゴリズムを構築し,ディフェンダーの準最適戦略を求める。
論文 参考訳(メタデータ) (2024-06-20T17:24:13Z) - AlphaZeroES: Direct score maximization outperforms planning loss minimization [61.17702187957206]
実行時の計画では、シングルエージェントとマルチエージェントの両方の設定でエージェントのパフォーマンスが劇的に向上することが示されている。
実行時に計画するアプローチのファミリは、AlphaZeroとその変種で、Monte Carlo Tree Searchと、状態値とアクション確率を予測することによって検索をガイドするニューラルネットワークを使用する。
複数の環境にまたがって、エピソードスコアを直接最大化し、計画損失を最小限に抑えることを示す。
論文 参考訳(メタデータ) (2024-06-12T23:00:59Z) - Optimizing Cyber Response Time on Temporal Active Directory Networks Using Decoys [4.2671394819888455]
攻撃の可能性を検出するために,Microsoft Active Directory (AD) ネットワークにデコイを配置する問題について検討する。
本稿では、時間的攻撃グラフにおけるデコイ配置の有効性を測定するために、応答時間と呼ばれる新しい指標を提案する。
我々の目標は、最悪の攻撃経路に対するディフェンダーの対応時間を最大化することです。
論文 参考訳(メタデータ) (2024-03-27T00:05:48Z) - Optimal Attack and Defense for Reinforcement Learning [11.36770403327493]
敵RLでは、外部攻撃者は、環境との相互作用を操作できる。
我々は、攻撃者が予想される報酬を最大化するステルス攻撃を設計する際の問題を示す。
被害者に対する最適な防衛方針は,Stackelbergゲームに対する解決策として計算できる,と我々は主張する。
論文 参考訳(メタデータ) (2023-11-30T21:21:47Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - Robust Reinforcement Learning Under Minimax Regret for Green Security [50.03819244940543]
グリーン・セキュリティ・ドメインは、密猟者、違法なロガー、違法な漁師の敵対行動の不確実さに直面してパトロールを計画する被告を特徴としている。
文献では検討されていないミニマックスの後悔基準に従って,グリーンセキュリティのための堅牢なシーケンシャルパトロール計画に着目する。
対戦行動のパラメータ値を制御するディフェンダーと自然のゲームとしてこの問題を定式化し,ロバストなポリシーを見つけるアルゴリズムMIRRORを設計する。
論文 参考訳(メタデータ) (2021-06-15T20:11:12Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - PDPGD: Primal-Dual Proximal Gradient Descent Adversarial Attack [92.94132883915876]
最先端のディープニューラルネットワークは、小さな入力摂動に敏感である。
対向騒音に対するロバスト性を改善するための多くの防御法が提案されている。
敵の強靭さを評価することは 極めて困難であることが分かりました
論文 参考訳(メタデータ) (2021-06-03T01:45:48Z) - CorrAttack: Black-box Adversarial Attack with Structured Search [20.30669137726607]
そこで本研究では,攻撃者が対象モデルの損失を問合せする,スコアベース対逆攻撃の新しい手法を提案する。
本手法では,損失関数の勾配関係を捉える構造を持つパラメータ化探索空間を用いる。
論文 参考訳(メタデータ) (2020-10-03T01:44:16Z) - RayS: A Ray Searching Method for Hard-label Adversarial Attack [99.72117609513589]
我々は、レイサーチ攻撃(RayS)を提案し、これはハードラベル攻撃の有効性と効率を大幅に改善する。
モデルの正当性チェックとしても使用できる。
論文 参考訳(メタデータ) (2020-06-23T07:01:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。