論文の概要: Robust Solutions for Multi-Defender Stackelberg Security Games
- arxiv url: http://arxiv.org/abs/2204.14000v1
- Date: Fri, 29 Apr 2022 10:37:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-02 22:37:06.441148
- Title: Robust Solutions for Multi-Defender Stackelberg Security Games
- Title(参考訳): マルチディフェンダーのStackelbergセキュリティゲームのためのロバストソリューション
- Authors: Dolev Mutzari, Yonatan Aumann, Sarit Kraus
- Abstract要約: マルチディフェンダーのStackelberg Security Games (MSSG)は、最近、文学の注目を集めている。
本稿では,MSSGに対するロバストモデルを導入し,ゲームパラメータの小さな摂動や不確実性に耐性のある解を認めた。
協調的な設定では、任意のそのようなゲームがロバストな近似αコアを認め、その効率的な構成を提供し、コアのより強い型が空であることを示す。
- 参考スコア(独自算出の注目度): 24.71245005104268
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-defender Stackelberg Security Games (MSSG) have recently gained
increasing attention in the literature. However, the solutions offered to date
are highly sensitive, wherein even small perturbations in the attacker's
utility or slight uncertainties thereof can dramatically change the defenders'
resulting payoffs and alter the equilibrium. In this paper, we introduce a
robust model for MSSGs, which admits solutions that are resistant to small
perturbations or uncertainties in the game's parameters. First, we formally
define the notion of robustness, as well as the robust MSSG model. Then, for
the non-cooperative setting, we prove the existence of a robust approximate
equilibrium in any such game, and provide an efficient construction thereof.
For the cooperative setting, we show that any such game admits a robust
approximate alpha-core, provide an efficient construction thereof, and prove
that stronger types of the core may be empty. Interestingly, the robust
solutions can substantially increase the defenders' utilities over those of the
non-robust ones.
- Abstract(参考訳): マルチディフェンダーのStackelberg Security Games (MSSG)は、最近、文学の注目を集めている。
しかし、これまで提供された解決策は非常に敏感であり、攻撃者の効用や若干の不確実性に小さな摂動さえも、守備側の成果の支払いを劇的に変え、均衡を変更することができる。
本稿では,MSSGに対するロバストモデルを提案する。このモデルでは,ゲームパラメータの小さな摂動や不確実性に耐性のある解が認められている。
まず、ロバスト性の概念とロバストmssgモデルを正式に定義する。
そして、非協調的な設定に対して、そのようなゲームにロバストな近似平衡が存在することを証明し、その効率的な構成を提供する。
協調的な設定では、そのようなゲームがロバストなアルファコアを認め、その効率的な構成を提供し、コアのより強い型が空であることを示す。
興味深いことに、ロバストでないソリューションよりもロバストなソリューションは、ディフェンダーのユーティリティを大幅に増加させることができる。
関連論文リスト
- Certified Causal Defense with Generalizable Robustness [14.238441767523602]
本稿では,認証防衛における一般化問題に因果的視点を取り入れた新しい認証防衛フレームワークGLEANを提案する。
本フレームワークは,因果関係と入力とラベル間の素因果関係を乱すために,認証因果関係学習コンポーネントを統合する。
そこで我々は,潜在因果的要因に対する敵対的攻撃に対処するために,因果的に認証された防衛戦略を設計する。
論文 参考訳(メタデータ) (2024-08-28T00:14:09Z) - Jailbreaking as a Reward Misspecification Problem [80.52431374743998]
本稿では,この脆弱性をアライメントプロセス中に不特定性に対処する新たな視点を提案する。
本稿では,報酬の相違の程度を定量化し,その有効性を実証する指標ReGapを紹介する。
ReMissは、報酬ミスの空間で敵のプロンプトを生成する自動レッドチームリングシステムである。
論文 参考訳(メタデータ) (2024-06-20T15:12:27Z) - Position: Towards Resilience Against Adversarial Examples [42.09231029292568]
我々は、敵の弾力性の定義と、敵の弾力性のある防御を設計する方法について概観する。
次に, 対向弾性のサブプロブレムを導入し, 連続適応ロバストネス(continuousal adapt robustness)と呼ぶ。
本研究では, 連続適応ロバストネスと, マルチアタックロバストネスと予期せぬアタックロバストネスの関連性を実証する。
論文 参考訳(メタデータ) (2024-05-02T14:58:44Z) - Sample-Efficient Robust Multi-Agent Reinforcement Learning in the Face of Environmental Uncertainty [40.55653383218379]
本研究は,ロバストなマルコフゲーム(RMG)の学習に焦点を当てる。
ゲーム理論平衡の様々な概念の頑健な変種を学習するために,有限サンプルの複雑性を保証するサンプル効率モデルベースアルゴリズム(DRNVI)を提案する。
論文 参考訳(メタデータ) (2024-04-29T17:51:47Z) - Cooperation or Competition: Avoiding Player Domination for Multi-Target
Robustness via Adaptive Budgets [76.20705291443208]
我々は、敵攻撃を、異なるプレイヤーがパラメータ更新の合同方向で合意に達するために交渉する交渉ゲームであると見なしている。
我々は、プレイヤーの優位性を避けるために、異なる敵の予算を調整する新しいフレームワークを設計する。
標準ベンチマークの実験では、提案したフレームワークを既存のアプローチに適用することで、マルチターゲットロバスト性が大幅に向上することが示された。
論文 参考訳(メタデータ) (2023-06-27T14:02:10Z) - Scale-Invariant Adversarial Attack for Evaluating and Enhancing
Adversarial Defenses [22.531976474053057]
プロジェクテッド・グラディエント・Descent (PGD) 攻撃は最も成功した敵攻撃の1つであることが示されている。
我々は, 対向層の特徴とソフトマックス層の重みの角度を利用して, 対向層の生成を誘導するスケール不変逆襲 (SI-PGD) を提案する。
論文 参考訳(メタデータ) (2022-01-29T08:40:53Z) - Towards Robustness Against Natural Language Word Substitutions [87.56898475512703]
単語置換に対するロバスト性は、意味論的に類似した単語を置換として、明確に定義され広く受け入れられる形式である。
従来の防衛方法は、$l$-ball または hyper-rectangle を用いてベクトル空間における単語置換をキャプチャする。
論文 参考訳(メタデータ) (2021-07-28T17:55:08Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Robust Encodings: A Framework for Combating Adversarial Typos [85.70270979772388]
NLPシステムは入力の小さな摂動によって容易に騙される。
このような混乱に対して防御するための既存の手順は、最悪の場合の攻撃に対して確実な堅牢性を提供する。
モデルアーキテクチャに妥協を加えることなく、ロバスト性を保証するロブエン(RobEn)を導入します。
論文 参考訳(メタデータ) (2020-05-04T01:28:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。