論文の概要: Simulation of Attacker Defender Interaction in a Noisy Security Game
- arxiv url: http://arxiv.org/abs/2212.04281v1
- Date: Thu, 8 Dec 2022 14:18:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 15:05:39.818855
- Title: Simulation of Attacker Defender Interaction in a Noisy Security Game
- Title(参考訳): うるさいセキュリティゲームにおけるアタッカーディフェンダー相互作用のシミュレーション
- Authors: Erick Galinkin and Emmanouil Pountourakis and John Carter and Spiros
Mancoridis
- Abstract要約: ノイズの多い環境で攻撃者とディフェンダー間の相互作用をシミュレートするセキュリティゲームフレームワークを導入する。
我々は,攻撃者に対して適切な仮定を行うことの重要性を示す。
攻撃的な結果に関して、偽陽性と真陽性の間には測定可能なトレードオフがある。
- 参考スコア(独自算出の注目度): 1.967117164081002
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the cybersecurity setting, defenders are often at the mercy of their
detection technologies and subject to the information and experiences that
individual analysts have. In order to give defenders an advantage, it is
important to understand an attacker's motivation and their likely next best
action. As a first step in modeling this behavior, we introduce a security game
framework that simulates interplay between attackers and defenders in a noisy
environment, focusing on the factors that drive decision making for attackers
and defenders in the variants of the game with full knowledge and
observability, knowledge of the parameters but no observability of the state
(``partial knowledge''), and zero knowledge or observability (``zero
knowledge''). We demonstrate the importance of making the right assumptions
about attackers, given significant differences in outcomes. Furthermore, there
is a measurable trade-off between false-positives and true-positives in terms
of attacker outcomes, suggesting that a more false-positive prone environment
may be acceptable under conditions where true-positives are also higher.
- Abstract(参考訳): サイバーセキュリティ設定では、ディフェンダーは検出技術に寛容であり、個々のアナリストが持つ情報や経験に従わざるを得ないことが多い。
守備側が有利になるためには、攻撃者のモチベーションと次の最善の行動を理解することが重要である。
この動作をモデル化する第一歩として,ゲームにおける攻撃者と守備者間の対話をシミュレートするセキュリティゲームフレームワークを紹介し,完全な知識と可観測性,パラメータの知識と状態の可観測性(``partial knowledge'')とゼロ知識あるいは可観測性(``zero knowledge'')を備えた,ゲームの変種における攻撃者と守備者に対する意思決定を促進する要因に焦点を当てた。
結果の大きな違いを考慮し,攻撃者に対する適切な仮定を行うことの重要性を実証する。
さらに、攻撃結果の観点からは、偽陽性と真陽性の間に測定可能なトレードオフがあり、真陽性も高い条件下では、より偽陽性の傾向が許容できる可能性があることを示唆している。
関連論文リスト
- On the Difficulty of Defending Contrastive Learning against Backdoor
Attacks [58.824074124014224]
バックドア攻撃が、特有のメカニズムによってどのように動作するかを示す。
本研究は, 対照的なバックドア攻撃の特異性に合わせて, 防御の必要性を浮き彫りにした。
論文 参考訳(メタデータ) (2023-12-14T15:54:52Z) - Designing an attack-defense game: how to increase robustness of
financial transaction models via a competition [69.08339915577206]
金融セクターにおける悪意ある攻撃のエスカレートリスクを考えると、機械学習モデルの敵戦略と堅牢な防御メカニズムを理解することが重要である。
本研究の目的は、逐次的な財務データを入力として使用するニューラルネットワークモデルに対する敵攻撃と防御の現状とダイナミクスを調査することである。
我々は、現代の金融取引データにおける問題の現実的かつ詳細な調査を可能にする競争を設計した。
参加者は直接対決するので、実生活に近い環境で攻撃や防御が検討される。
論文 参考訳(メタデータ) (2023-08-22T12:53:09Z) - Learning to Defend by Attacking (and Vice-Versa): Transfer of Learning
in Cybersecurity Games [1.14219428942199]
本稿では, 事例ベース学習理論, 心の理論, 学習の伝達の認知能力に着想を得た, 人間の意思決定の新しいモデルを提案する。
このモデルは、ディフェンダーとアタッカーの両方の役割から学び、相手の信念、意図、行動を予測することによって機能する。
シミュレーション実験の結果は、攻撃と防衛の役割で訓練されたエージェントの認知にインスパイアされたモデルの有用性を示す。
論文 参考訳(メタデータ) (2023-06-03T17:51:04Z) - Physical Adversarial Attack meets Computer Vision: A Decade Survey [57.46379460600939]
本稿では,身体的敵意攻撃の概要を概観する。
本研究は,身体的敵意攻撃の性能を体系的に評価する第一歩を踏み出した。
提案する評価基準であるhiPAAは6つの視点から構成される。
論文 参考訳(メタデータ) (2022-09-30T01:59:53Z) - A Tale of HodgeRank and Spectral Method: Target Attack Against Rank
Aggregation Is the Fixed Point of Adversarial Game [153.74942025516853]
ランクアグリゲーション手法の本質的な脆弱性は文献ではよく研究されていない。
本稿では,ペアデータの変更による集計結果の指定を希望する目的のある敵に焦点をあてる。
提案した標的攻撃戦略の有効性は,一連の玩具シミュレーションと実世界のデータ実験によって実証された。
論文 参考訳(メタデータ) (2022-09-13T05:59:02Z) - Targeted Attack on Deep RL-based Autonomous Driving with Learned Visual
Patterns [18.694795507945603]
近年の研究では、敵の攻撃に対する深い強化学習を通じて学んだコントロールポリシーの脆弱性が実証されている。
本研究では, 物理的対象物に配置した視覚的学習パターンを用いて, 標的攻撃の実現可能性について検討する。
論文 参考訳(メタデータ) (2021-09-16T04:59:06Z) - Adversarial Visual Robustness by Causal Intervention [56.766342028800445]
敵の訓練は、敵の例に対する事実上最も有望な防御である。
しかし、その受動性は必然的に未知の攻撃者への免疫を妨げる。
我々は、敵対的脆弱性の因果的視点を提供する: 原因は、学習に普遍的に存在する共同創設者である。
論文 参考訳(メタデータ) (2021-06-17T14:23:54Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z) - Adversarial Robustness for Machine Learning Cyber Defenses Using Log
Data [0.0]
我々は,機械学習サイバーディフェンスの対角的堅牢性を評価するためのテストフレームワークを開発した。
我々は、公開データセットを用いて、我々のフレームワークを検証し、我々の敵攻撃がターゲットシステムに対して成功することを示す。
我々は,異なるレベルのドロップアウト正規化の影響を分析し,より高いドロップアウトレベルがロバスト性を高めることを確かめるために,我々のフレームワークを適用した。
論文 参考訳(メタデータ) (2020-07-29T17:51:29Z) - Protecting Classifiers From Attacks. A Bayesian Approach [0.9449650062296823]
我々は,攻撃者の行動に関する正確な知識の欠如を,敵対的リスク分析を用いて考慮した代替的ベイズ的枠組みを提供する。
本研究では, 近似ベイズ計算に基づくサンプリング手法を提案する。
大規模問題に対して、微分可能な分類器を扱う際に使用できる代替のスケーラブルなアプローチを提案する。
論文 参考訳(メタデータ) (2020-04-18T21:21:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。