論文の概要: Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS
- arxiv url: http://arxiv.org/abs/2111.12197v1
- Date: Tue, 23 Nov 2021 23:42:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-25 16:15:23.377751
- Title: Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS
- Title(参考訳): サイバー空間の固定点:AI-NIDS時代の最適な侵入攻撃を再考する
- Authors: Christian Schroeder de Witt, Yongchao Huang, Philip H.S. Torr, Martin
Strohmeier
- Abstract要約: ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
- 参考スコア(独自算出の注目度): 70.60975663021952
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cyber attacks are increasing in volume, frequency, and complexity. In
response, the security community is looking toward fully automating cyber
defense systems using machine learning. However, so far the resultant effects
on the coevolutionary dynamics of attackers and defenders have not been
examined. In this whitepaper, we hypothesise that increased automation on both
sides will accelerate the coevolutionary cycle, thus begging the question of
whether there are any resultant fixed points, and how they are characterised.
Working within the threat model of Locked Shields, Europe's largest
cyberdefense exercise, we study blackbox adversarial attacks on network
classifiers. Given already existing attack capabilities, we question the
utility of optimal evasion attack frameworks based on minimal evasion
distances. Instead, we suggest a novel reinforcement learning setting that can
be used to efficiently generate arbitrary adversarial perturbations. We then
argue that attacker-defender fixed points are themselves general-sum games with
complex phase transitions, and introduce a temporally extended multi-agent
reinforcement learning framework in which the resultant dynamics can be
studied. We hypothesise that one plausible fixed point of AI-NIDS may be a
scenario where the defense strategy relies heavily on whitelisted feature flow
subspaces. Finally, we demonstrate that a continual learning approach is
required to study attacker-defender dynamics in temporally extended general-sum
games.
- Abstract(参考訳): サイバー攻撃はボリューム、頻度、複雑さが増加している。
セキュリティコミュニティは、機械学習を使ってサイバー防衛システムを完全自動化することを目指している。
しかし、これまでのところ、攻撃者と守備者の共進化的ダイナミクスに対する結果の影響は調査されていない。
この白書では,両側の自動化が促進すれば,進化サイクルが加速し,結果として得られる固定点が存在するか,どのように特徴付けられるかという疑問が提起される。
欧州最大のサイバー防衛活動であるlocked shieldsの脅威モデルの中で、ネットワーク分類器に対するブラックボックスの敵意攻撃を調査した。
既存の攻撃能力を考えると、最小回避距離に基づく最適な回避攻撃フレームワークの有用性を疑問視する。
代わりに,任意の逆摂動を効率的に生成できる新しい強化学習設定を提案する。
そこで我々は,アタッカー・ディフェンダー固定点自体が複雑な位相遷移を持つ一般サムゲームであり,結果のダイナミクスを研究するための時間拡張型マルチエージェント強化学習フレームワークを導入する。
我々は、AI-NIDSのもっともらしい固定点が、防衛戦略がホワイトリスト化された特徴フロー部分空間に大きく依存するシナリオであると仮定する。
最後に,時間的に拡張された汎用ゲームにおいて,アタッカー・ディフェンダーのダイナミクスを研究するために連続学習アプローチが必要であることを示す。
関連論文リスト
- Taking off the Rose-Tinted Glasses: A Critical Look at Adversarial ML Through the Lens of Evasion Attacks [11.830908033835728]
我々は、過度に寛容な攻撃と過度に制限された防衛脅威モデルが、MLドメインにおける防衛開発を妨げていると主張している。
我々は、AIの観点からではなく、システムセキュリティの観点から、敵対的機械学習を分析する。
論文 参考訳(メタデータ) (2024-10-15T21:33:23Z) - A Novel Approach to Guard from Adversarial Attacks using Stable Diffusion [0.0]
我々の提案は、AI Guardianフレームワークに対する別のアプローチを提案する。
トレーニングプロセスに敵対的な例を含める代わりに、AIシステムをトレーニングせずに行うことを提案する。
これは、より広い範囲の攻撃に対して本質的に回復力のあるシステムを構築することを目的としています。
論文 参考訳(メタデータ) (2024-05-03T04:08:15Z) - Use of Graph Neural Networks in Aiding Defensive Cyber Operations [2.1874189959020427]
グラフニューラルネットワークは、防御対策の有効性を高めるための有望なアプローチとして登場した。
我々は、最も有名な攻撃ライフサイクルの1つ、ロッキード・マーティン・サイバーキル・チェーンのそれぞれのステージを壊すのに役立つGNNの応用について検討する。
論文 参考訳(メタデータ) (2024-01-11T05:56:29Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - Towards Evaluating the Robustness of Neural Networks Learned by
Transduction [44.189248766285345]
Greedy Model Space Attack (GMSA)は、トランスダクティブ学習に基づく防御を評価するための新しいベースラインとして機能する攻撃フレームワークである。
GMSAは, 弱いインスタンス化であっても, 従来のトランスダクティブ・ラーニングに基づく防御を破ることができることを示す。
論文 参考訳(メタデータ) (2021-10-27T19:39:50Z) - Automating Privilege Escalation with Deep Reinforcement Learning [71.87228372303453]
本研究では,エージェントの訓練に深層強化学習を用いることで,悪意あるアクターの潜在的な脅威を実証する。
本稿では,最先端の強化学習アルゴリズムを用いて,局所的な特権エスカレーションを行うエージェントを提案する。
我々のエージェントは、実際の攻撃センサーデータを生成し、侵入検知システムの訓練と評価に利用できる。
論文 参考訳(メタデータ) (2021-10-04T12:20:46Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Adversarial Attack and Defense in Deep Ranking [100.17641539999055]
本稿では,敵対的摂動によって選抜された候補者のランクを引き上げたり下げたりできる,ディープランキングシステムに対する2つの攻撃を提案する。
逆に、全ての攻撃に対するランキングモデルロバスト性を改善するために、反崩壊三重項防御法が提案されている。
MNIST, Fashion-MNIST, CUB200-2011, CARS196およびStanford Online Productsデータセットを用いて, 敵のランク付け攻撃と防御を評価した。
論文 参考訳(メタデータ) (2021-06-07T13:41:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。