論文の概要: Robust Solutions for Multi-Defender Stackelberg Security Games
- arxiv url: http://arxiv.org/abs/2204.14000v1
- Date: Fri, 29 Apr 2022 10:37:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-02 22:37:06.441148
- Title: Robust Solutions for Multi-Defender Stackelberg Security Games
- Title(参考訳): マルチディフェンダーのStackelbergセキュリティゲームのためのロバストソリューション
- Authors: Dolev Mutzari, Yonatan Aumann, Sarit Kraus
- Abstract要約: マルチディフェンダーのStackelberg Security Games (MSSG)は、最近、文学の注目を集めている。
本稿では,MSSGに対するロバストモデルを導入し,ゲームパラメータの小さな摂動や不確実性に耐性のある解を認めた。
協調的な設定では、任意のそのようなゲームがロバストな近似αコアを認め、その効率的な構成を提供し、コアのより強い型が空であることを示す。
- 参考スコア(独自算出の注目度): 24.71245005104268
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-defender Stackelberg Security Games (MSSG) have recently gained
increasing attention in the literature. However, the solutions offered to date
are highly sensitive, wherein even small perturbations in the attacker's
utility or slight uncertainties thereof can dramatically change the defenders'
resulting payoffs and alter the equilibrium. In this paper, we introduce a
robust model for MSSGs, which admits solutions that are resistant to small
perturbations or uncertainties in the game's parameters. First, we formally
define the notion of robustness, as well as the robust MSSG model. Then, for
the non-cooperative setting, we prove the existence of a robust approximate
equilibrium in any such game, and provide an efficient construction thereof.
For the cooperative setting, we show that any such game admits a robust
approximate alpha-core, provide an efficient construction thereof, and prove
that stronger types of the core may be empty. Interestingly, the robust
solutions can substantially increase the defenders' utilities over those of the
non-robust ones.
- Abstract(参考訳): マルチディフェンダーのStackelberg Security Games (MSSG)は、最近、文学の注目を集めている。
しかし、これまで提供された解決策は非常に敏感であり、攻撃者の効用や若干の不確実性に小さな摂動さえも、守備側の成果の支払いを劇的に変え、均衡を変更することができる。
本稿では,MSSGに対するロバストモデルを提案する。このモデルでは,ゲームパラメータの小さな摂動や不確実性に耐性のある解が認められている。
まず、ロバスト性の概念とロバストmssgモデルを正式に定義する。
そして、非協調的な設定に対して、そのようなゲームにロバストな近似平衡が存在することを証明し、その効率的な構成を提供する。
協調的な設定では、そのようなゲームがロバストなアルファコアを認め、その効率的な構成を提供し、コアのより強い型が空であることを示す。
興味深いことに、ロバストでないソリューションよりもロバストなソリューションは、ディフェンダーのユーティリティを大幅に増加させることができる。
関連論文リスト
- The Pros and Cons of Adversarial Robustness [8.399401543300485]
ロバストネスは機械学習(ML)モデルの解析における根本的な問題として広く見なされている。
本稿は,グローバルとローカルの両方において,ロバスト性の定義に関するいくつかの制約を明らかにする。
論文 参考訳(メタデータ) (2023-12-18T03:37:39Z) - Cooperation or Competition: Avoiding Player Domination for Multi-Target
Robustness via Adaptive Budgets [76.20705291443208]
我々は、敵攻撃を、異なるプレイヤーがパラメータ更新の合同方向で合意に達するために交渉する交渉ゲームであると見なしている。
我々は、プレイヤーの優位性を避けるために、異なる敵の予算を調整する新しいフレームワークを設計する。
標準ベンチマークの実験では、提案したフレームワークを既存のアプローチに適用することで、マルチターゲットロバスト性が大幅に向上することが示された。
論文 参考訳(メタデータ) (2023-06-27T14:02:10Z) - Can Adversarial Training Be Manipulated By Non-Robust Features? [64.73107315313251]
もともとテストタイムの敵の例に抵抗するために設計された対人訓練は、トレーニング時間アベイラビリティーアタックの緩和に有望であることが示されている。
我々は、トレーニングデータをわずかに摂動させることで、堅牢な可用性を阻害することを目的とした、安定性攻撃と呼ばれる新しい脅威モデルを特定する。
この脅威の下では、従来の防衛予算$epsilon$による敵の訓練が、単純な統計的条件下でテストロバスト性を提供するのに確実に失敗することを発見した。
論文 参考訳(メタデータ) (2022-01-31T16:25:25Z) - Scale-Invariant Adversarial Attack for Evaluating and Enhancing
Adversarial Defenses [22.531976474053057]
プロジェクテッド・グラディエント・Descent (PGD) 攻撃は最も成功した敵攻撃の1つであることが示されている。
我々は, 対向層の特徴とソフトマックス層の重みの角度を利用して, 対向層の生成を誘導するスケール不変逆襲 (SI-PGD) を提案する。
論文 参考訳(メタデータ) (2022-01-29T08:40:53Z) - Towards Robustness Against Natural Language Word Substitutions [87.56898475512703]
単語置換に対するロバスト性は、意味論的に類似した単語を置換として、明確に定義され広く受け入れられる形式である。
従来の防衛方法は、$l$-ball または hyper-rectangle を用いてベクトル空間における単語置換をキャプチャする。
論文 参考訳(メタデータ) (2021-07-28T17:55:08Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - PatchGuard: A Provably Robust Defense against Adversarial Patches via
Small Receptive Fields and Masking [46.03749650789915]
画像の制限領域内の画素を任意に修正することで、機械学習モデルの誤分類を誘発することを目的としている。
そこで我々はPatchGuardという汎用防衛フレームワークを提案する。このフレームワークは、局所的な敵パッチに対して高い清潔さを維持しつつ、高い堅牢性を達成できる。
論文 参考訳(メタデータ) (2020-05-17T03:38:34Z) - Robust Encodings: A Framework for Combating Adversarial Typos [85.70270979772388]
NLPシステムは入力の小さな摂動によって容易に騙される。
このような混乱に対して防御するための既存の手順は、最悪の場合の攻撃に対して確実な堅牢性を提供する。
モデルアーキテクチャに妥協を加えることなく、ロバスト性を保証するロブエン(RobEn)を導入します。
論文 参考訳(メタデータ) (2020-05-04T01:28:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。