論文の概要: Learning Attacker's Bounded Rationality Model in Security Games
- arxiv url: http://arxiv.org/abs/2109.13036v1
- Date: Mon, 27 Sep 2021 13:22:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-13 11:52:07.165014
- Title: Learning Attacker's Bounded Rationality Model in Security Games
- Title(参考訳): セキュリティゲームにおける攻撃者の境界性モデル学習
- Authors: Adam \.Zychowski, Jacek Ma\'ndziuk
- Abstract要約: そこで本稿では,Stackelberg Security Gamesにおけるリーダの報酬を計算するための新しい神経進化計算手法(NESG)を提案する。
NESGの中心は戦略評価ニューラルネットワーク(SENN)である
SENNは、特定の認知バイアスや制限のために完全に合理的に振る舞わない可能性のある相手に対するリーダーの戦略を効果的に評価することができる。
- 参考スコア(独自算出の注目度): 0.685316573653194
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The paper proposes a novel neuroevolutionary method (NESG) for calculating
leader's payoff in Stackelberg Security Games. The heart of NESG is strategy
evaluation neural network (SENN). SENN is able to effectively evaluate leader's
strategies against an opponent who may potentially not behave in a perfectly
rational way due to certain cognitive biases or limitations. SENN is trained on
historical data and does not require any direct prior knowledge regarding the
follower's target preferences, payoff distribution or bounded rationality
model. NESG was tested on a set of 90 benchmark games inspired by real-world
cybersecurity scenario known as deep packet inspections. Experimental results
show an advantage of applying NESG over the existing state-of-the-art methods
when playing against not perfectly rational opponents. The method provides high
quality solutions with superior computation time scalability. Due to generic
and knowledge-free construction of NESG, the method may be applied to various
real-life security scenarios.
- Abstract(参考訳): 本稿では,stackelberg security gamesにおけるリーダーの報酬を計算するための新しい神経進化法(nesg)を提案する。
NESGの核心は戦略評価ニューラルネットワーク(SENN)である。
SENNは、特定の認知バイアスや制限のために完全に合理的に振る舞わない可能性のある相手に対するリーダーの戦略を効果的に評価することができる。
SENNは過去のデータに基づいて訓練されており、フォロワーの好み、配当分布、有界合理性モデルに関する直接的な事前知識を必要としない。
NESGは、ディープパケット検査として知られる現実世界のサイバーセキュリティシナリオに触発された90のベンチマークゲームでテストされた。
実験結果から,完全に合理的でない相手と対戦する場合に,既存の最先端手法にNESGを適用する利点が示された。
この方法は計算時間のスケーラビリティに優れた高品質なソリューションを提供する。
NESGの汎用的で知識のない構築のため、この手法は様々な現実のセキュリティシナリオに適用できる。
関連論文リスト
- Towards Understanding and Enhancing Security of Proof-of-Training for DNN Model Ownership Verification [10.719324803570878]
具体的スキームにインスタンス化できる汎用的学習証明(PoT)の構築を提案する。
我々は,既存のPoTスキームを侵害した攻撃に対して,我々の計画が抵抗可能であることを示す。
論文 参考訳(メタデータ) (2024-10-06T08:30:31Z) - Sequential Manipulation Against Rank Aggregation: Theory and Algorithm [119.57122943187086]
脆弱なデータ収集プロセスに対するオンライン攻撃を活用します。
ゲーム理論の観点からは、対決シナリオは分布的に堅牢なゲームとして定式化される。
提案手法は,ランクアグリゲーション手法の結果を逐次的に操作する。
論文 参考訳(メタデータ) (2024-07-02T03:31:21Z) - Towards Evaluating Transfer-based Attacks Systematically, Practically,
and Fairly [79.07074710460012]
ディープニューラルネットワーク(DNN)の敵対的脆弱性に大きな注目を集めている。
ブラックボックスDNNモデルを騙すための転送ベース手法が増えている。
30以上のメソッドを実装した転送ベースアタックベンチマーク(TA-Bench)を確立する。
論文 参考訳(メタデータ) (2023-11-02T15:35:58Z) - Activate and Reject: Towards Safe Domain Generalization under Category
Shift [71.95548187205736]
カテゴリーシフト(DGCS)下における領域一般化の実践的問題について検討する。
未知のクラスサンプルを同時に検出し、ターゲットドメイン内の既知のクラスサンプルを分類することを目的としている。
従来のDGと比較すると,1)ソースクラスのみを用いたトレーニングにおいて,未知の概念を学習する方法,2)ソーストレーニングされたモデルを未知の環境に適応する方法,の2つの新しい課題に直面している。
論文 参考訳(メタデータ) (2023-10-07T07:53:12Z) - Towards Adversarial Realism and Robust Learning for IoT Intrusion
Detection and Classification [0.0]
IoT(Internet of Things)は、重大なセキュリティ上の課題に直面している。
敵の攻撃による脅威の増大は、信頼できる防衛戦略の必要性を回復させる。
本研究は、敵のサイバー攻撃事例が現実的であるために必要な制約の種類について述べる。
論文 参考訳(メタデータ) (2023-01-30T18:00:28Z) - Unrestricted Black-box Adversarial Attack Using GAN with Limited Queries [1.7205106391379026]
GANを用いた非制限逆例を生成するための新しい手法を提案する。
提案手法は遅延空間における決定に基づく攻撃の利点を効果的に活用する。
提案手法は,ブラックボックス設定における限定クエリを用いた分類モデルのロバスト性を評価するのに有効であることを示す。
論文 参考訳(メタデータ) (2022-08-24T15:28:46Z) - Game-Theoretic Neyman-Pearson Detection to Combat Strategic Evasion [13.47548023934913]
この研究は、このような回避攻撃に対抗するための全体論的理論を開発することを目的としている。
本稿では,戦略的回避攻撃と回避対応NP検出器の競合関係を捉えるためのゲーム理論フレームワークを提案する。
回避認識型NP検出器は、攻撃者の行動に対して戦略的に行動することができるように、受動型NP検出器よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-10T23:16:41Z) - Certifiers Make Neural Networks Vulnerable to Availability Attacks [70.69104148250614]
私たちは初めて、逆転戦略が敵によって意図的に引き起こされる可能性があることを示します。
いくつかの入力や摂動のために自然に発生する障害に加えて、敵は故意にフォールバックを誘発するために訓練時間攻撃を使用することができる。
我々は2つの新しいアベイラビリティーアタックを設計し、これらの脅威の実用的妥当性を示す。
論文 参考訳(メタデータ) (2021-08-25T15:49:10Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。