論文の概要: Simulation of Attacker Defender Interaction in a Noisy Security Game
- arxiv url: http://arxiv.org/abs/2212.04281v1
- Date: Thu, 8 Dec 2022 14:18:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-12-09 15:05:39.818855
- Title: Simulation of Attacker Defender Interaction in a Noisy Security Game
- Title(参考訳): うるさいセキュリティゲームにおけるアタッカーディフェンダー相互作用のシミュレーション
- Authors: Erick Galinkin and Emmanouil Pountourakis and John Carter and Spiros
Mancoridis
- Abstract要約: ノイズの多い環境で攻撃者とディフェンダー間の相互作用をシミュレートするセキュリティゲームフレームワークを導入する。
我々は,攻撃者に対して適切な仮定を行うことの重要性を示す。
攻撃的な結果に関して、偽陽性と真陽性の間には測定可能なトレードオフがある。
- 参考スコア(独自算出の注目度): 1.967117164081002
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the cybersecurity setting, defenders are often at the mercy of their
detection technologies and subject to the information and experiences that
individual analysts have. In order to give defenders an advantage, it is
important to understand an attacker's motivation and their likely next best
action. As a first step in modeling this behavior, we introduce a security game
framework that simulates interplay between attackers and defenders in a noisy
environment, focusing on the factors that drive decision making for attackers
and defenders in the variants of the game with full knowledge and
observability, knowledge of the parameters but no observability of the state
(``partial knowledge''), and zero knowledge or observability (``zero
knowledge''). We demonstrate the importance of making the right assumptions
about attackers, given significant differences in outcomes. Furthermore, there
is a measurable trade-off between false-positives and true-positives in terms
of attacker outcomes, suggesting that a more false-positive prone environment
may be acceptable under conditions where true-positives are also higher.
- Abstract(参考訳): サイバーセキュリティ設定では、ディフェンダーは検出技術に寛容であり、個々のアナリストが持つ情報や経験に従わざるを得ないことが多い。
守備側が有利になるためには、攻撃者のモチベーションと次の最善の行動を理解することが重要である。
この動作をモデル化する第一歩として,ゲームにおける攻撃者と守備者間の対話をシミュレートするセキュリティゲームフレームワークを紹介し,完全な知識と可観測性,パラメータの知識と状態の可観測性(``partial knowledge'')とゼロ知識あるいは可観測性(``zero knowledge'')を備えた,ゲームの変種における攻撃者と守備者に対する意思決定を促進する要因に焦点を当てた。
結果の大きな違いを考慮し,攻撃者に対する適切な仮定を行うことの重要性を実証する。
さらに、攻撃結果の観点からは、偽陽性と真陽性の間に測定可能なトレードオフがあり、真陽性も高い条件下では、より偽陽性の傾向が許容できる可能性があることを示唆している。
関連論文リスト
- Preliminary Investigation into Uncertainty-Aware Attack Stage Classification [81.28215542218724]
この研究は、不確実性の下での攻撃段階推論の問題に対処する。
Evidential Deep Learning (EDL) に基づく分類手法を提案し、ディリクレ分布のパラメータを可能な段階に出力することで予測の不確実性をモデル化する。
シミュレーション環境における予備実験により,提案モデルが精度良く攻撃の段階を推定できることが実証された。
論文 参考訳(メタデータ) (2025-08-01T06:58:00Z) - Interpreting Agent Behaviors in Reinforcement-Learning-Based Cyber-Battle Simulation Platforms [5.743789620999628]
我々は、CAGE Challenge 2サイバーディフェンスチャレンジに提出された2つのオープンソースの深層強化学習エージェントを分析した。
複雑な状態と行動空間を単純化することにより、エージェントの成功と失敗の解釈可能性を得ることができることを示す。
我々は、CAGEチャレンジ4が我々の懸念に対処した課題の現実性と方法について議論する。
論文 参考訳(メタデータ) (2025-06-09T20:07:26Z) - Chasing Moving Targets with Online Self-Play Reinforcement Learning for Safer Language Models [55.28518567702213]
従来の言語モデル(LM)の安全性アライメントは、リアクティブで非結合な手順に依存している。
このシーケンシャルなアプローチはミスマッチを生み出し、攻撃者は時代遅れの防御に過度に適合する一方、守備側は出現する脅威に常に遅れをとどめている。
我々は,攻撃者と防御エージェントが継続的なインタラクションを通じて共進化するオンラインセルフプレイ強化学習アルゴリズムであるSelf-RedTeamを提案する。
論文 参考訳(メタデータ) (2025-06-09T06:35:12Z) - Concealment of Intent: A Game-Theoretic Analysis [15.387256204743407]
我々は、意図を隠蔽する敵のプロンプトというスケーラブルな攻撃戦略を提示し、スキルの合成を通じて悪意のある意図を隠蔽する。
本分析では, 平衡点を同定し, 攻撃者に対する構造的優位性を明らかにする。
実験により,複数の実世界のLSMに対する攻撃の有効性を,様々な悪意ある行動にわたって検証した。
論文 参考訳(メタデータ) (2025-05-27T07:59:56Z) - Modeling Behavioral Preferences of Cyber Adversaries Using Inverse Reinforcement Learning [4.5456862813416565]
本稿では,逆強化学習(IRL)を用いたシステムレベルの監査ログから攻撃者の嗜好をモデル化するための包括的アプローチを提案する。
我々は、彼らのツールや技術に関する法医学データから、サイバー敵の行動選好を学習する。
その結果,低レベルの鑑識データが,相手の主観的嗜好を自動的に明らかにできることがわかった。
論文 参考訳(メタデータ) (2025-05-02T18:20:14Z) - Deep Learning Model Security: Threats and Defenses [25.074630770554105]
ディープラーニングはAIアプリケーションを変えたが、重要なセキュリティ課題に直面している。
この調査は、これらの脆弱性を調べ、それらのメカニズムとモデル完全性と機密性への影響を詳細に示す。
この調査は、自動化された防御、ゼロトラストアーキテクチャ、大規模AIモデルのセキュリティ上の課題を強調し、今後の方向性を結論付けている。
論文 参考訳(メタデータ) (2024-12-12T06:04:20Z) - Criticality and Safety Margins for Reinforcement Learning [53.10194953873209]
我々は,定量化基盤真理とユーザにとっての明確な意義の両面から,批判的枠組みを定めようとしている。
エージェントがn連続的ランダム動作に対するポリシーから逸脱した場合の報酬の減少として真臨界を導入する。
我々はまた、真の臨界と統計的に単調な関係を持つ低オーバーヘッド計量であるプロキシ臨界の概念も導入する。
論文 参考訳(メタデータ) (2024-09-26T21:00:45Z) - A Quantal Response Analysis of Defender-Attacker Sequential Security Games [1.3022753212679383]
2つのサイトと、ディフェンダーとアタッカーの間のシーケンシャルゲームを含むシナリオを探索する。
攻撃の目的は、防御者のセキュリティ投資を考慮して、防御者の期待する損失を最大化するサイトをターゲットにすることである。
我々は、人間が効率的な(純粋な)戦略を選択する際にエラーを犯す量子的行動バイアスを考察する。
論文 参考訳(メタデータ) (2024-08-02T00:40:48Z) - On the Difficulty of Defending Contrastive Learning against Backdoor
Attacks [58.824074124014224]
バックドア攻撃が、特有のメカニズムによってどのように動作するかを示す。
本研究は, 対照的なバックドア攻撃の特異性に合わせて, 防御の必要性を浮き彫りにした。
論文 参考訳(メタデータ) (2023-12-14T15:54:52Z) - Designing an attack-defense game: how to increase robustness of
financial transaction models via a competition [69.08339915577206]
金融セクターにおける悪意ある攻撃のエスカレートリスクを考えると、機械学習モデルの敵戦略と堅牢な防御メカニズムを理解することが重要である。
本研究の目的は、逐次的な財務データを入力として使用するニューラルネットワークモデルに対する敵攻撃と防御の現状とダイナミクスを調査することである。
我々は、現代の金融取引データにおける問題の現実的かつ詳細な調査を可能にする競争を設計した。
参加者は直接対決するので、実生活に近い環境で攻撃や防御が検討される。
論文 参考訳(メタデータ) (2023-08-22T12:53:09Z) - Learning to Defend by Attacking (and Vice-Versa): Transfer of Learning
in Cybersecurity Games [1.14219428942199]
本稿では, 事例ベース学習理論, 心の理論, 学習の伝達の認知能力に着想を得た, 人間の意思決定の新しいモデルを提案する。
このモデルは、ディフェンダーとアタッカーの両方の役割から学び、相手の信念、意図、行動を予測することによって機能する。
シミュレーション実験の結果は、攻撃と防衛の役割で訓練されたエージェントの認知にインスパイアされたモデルの有用性を示す。
論文 参考訳(メタデータ) (2023-06-03T17:51:04Z) - Protecting Split Learning by Potential Energy Loss [70.81375125791979]
我々は、分割学習の前方埋め込みからのプライバシー漏洩に焦点を当てる。
我々は、前方埋め込みをより「複雑化」させるためのエネルギー損失の可能性を提案する。
論文 参考訳(メタデータ) (2022-10-18T06:21:11Z) - A Tale of HodgeRank and Spectral Method: Target Attack Against Rank
Aggregation Is the Fixed Point of Adversarial Game [153.74942025516853]
ランクアグリゲーション手法の本質的な脆弱性は文献ではよく研究されていない。
本稿では,ペアデータの変更による集計結果の指定を希望する目的のある敵に焦点をあてる。
提案した標的攻撃戦略の有効性は,一連の玩具シミュレーションと実世界のデータ実験によって実証された。
論文 参考訳(メタデータ) (2022-09-13T05:59:02Z) - Targeted Attack on Deep RL-based Autonomous Driving with Learned Visual
Patterns [18.694795507945603]
近年の研究では、敵の攻撃に対する深い強化学習を通じて学んだコントロールポリシーの脆弱性が実証されている。
本研究では, 物理的対象物に配置した視覚的学習パターンを用いて, 標的攻撃の実現可能性について検討する。
論文 参考訳(メタデータ) (2021-09-16T04:59:06Z) - Adversarial Visual Robustness by Causal Intervention [56.766342028800445]
敵の訓練は、敵の例に対する事実上最も有望な防御である。
しかし、その受動性は必然的に未知の攻撃者への免疫を妨げる。
我々は、敵対的脆弱性の因果的視点を提供する: 原因は、学習に普遍的に存在する共同創設者である。
論文 参考訳(メタデータ) (2021-06-17T14:23:54Z) - Protecting Classifiers From Attacks. A Bayesian Approach [0.9449650062296823]
我々は,攻撃者の行動に関する正確な知識の欠如を,敵対的リスク分析を用いて考慮した代替的ベイズ的枠組みを提供する。
本研究では, 近似ベイズ計算に基づくサンプリング手法を提案する。
大規模問題に対して、微分可能な分類器を扱う際に使用できる代替のスケーラブルなアプローチを提案する。
論文 参考訳(メタデータ) (2020-04-18T21:21:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。