論文の概要: Planning for Attacker Entrapment in Adversarial Settings
- arxiv url: http://arxiv.org/abs/2303.00822v1
- Date: Wed, 1 Mar 2023 21:08:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-03 16:55:23.117782
- Title: Planning for Attacker Entrapment in Adversarial Settings
- Title(参考訳): 敵陣における攻撃者の侵入計画
- Authors: Brittany Cates, Anagha Kulkarni, Sarath Sreedharan
- Abstract要約: 本研究では,攻撃者の知識を使わずに攻撃者が操作できる環境で作業している攻撃者に対する防衛戦略を生成する枠組みを提案する。
この問題の定式化により、より単純な無限地平線割引MDPとして捉えることができ、MDPの最適方針は、攻撃者の行動に対するディフェンダーの戦略を与える。
- 参考スコア(独自算出の注目度): 16.085007590604327
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a planning framework to generate a defense strategy
against an attacker who is working in an environment where a defender can
operate without the attacker's knowledge. The objective of the defender is to
covertly guide the attacker to a trap state from which the attacker cannot
achieve their goal. Further, the defender is constrained to achieve its goal
within K number of steps, where K is calculated as a pessimistic lower bound
within which the attacker is unlikely to suspect a threat in the environment.
Such a defense strategy is highly useful in real world systems like honeypots
or honeynets, where an unsuspecting attacker interacts with a simulated
production system while assuming it is the actual production system. Typically,
the interaction between an attacker and a defender is captured using game
theoretic frameworks. Our problem formulation allows us to capture it as a much
simpler infinite horizon discounted MDP, in which the optimal policy for the
MDP gives the defender's strategy against the actions of the attacker. Through
empirical evaluation, we show the merits of our problem formulation.
- Abstract(参考訳): 本稿では,攻撃者の知識を使わずに攻撃者が操作できる環境で作業する攻撃者に対する防衛戦略を作成するための計画枠組みを提案する。
ディフェンダーの目的は、攻撃者が目標を達成できないトラップ状態まで、密かに攻撃者を誘導することである。
さらに、攻撃者が環境の脅威を疑う可能性が低い悲観的下界としてKが計算されるK個のステップで目標を達成することが制約される。
このような防衛戦略は、ハニーポットやハニーネットのような現実世界のシステムにおいて非常に有用であり、攻撃者が実際の生産システムであると仮定しながらシミュレーションされた生産システムと相互作用する。
通常、アタッカーとディフェンダーのインタラクションはゲーム理論のフレームワークを使ってキャプチャされる。
問題の定式化により、より単純な無限地平線割引MDPとして捉えることができ、MDPの最適方針は攻撃者の行動に対する防衛者の戦略を与える。
経験的評価を通じて,問題定式化のメリットを示す。
関連論文リスト
- A Proactive Decoy Selection Scheme for Cyber Deception using MITRE ATT&CK [0.9831489366502301]
サイバー詐欺は、攻撃者の戦術、技術、手順(TTP)に対する守備隊の遅さを補うことができる。
本研究では,実世界の攻撃者の経験的観察に基づく敵モデルにより支援されたデコイ選択方式を設計する。
その結果,提案手法は最小のデコイを用いた攻撃経路のインターセプション率が最も高いことがわかった。
論文 参考訳(メタデータ) (2024-04-19T10:45:05Z) - Counter-Samples: A Stateless Strategy to Neutralize Black Box Adversarial Attacks [2.9815109163161204]
本稿では,ブラックボックス攻撃に対する新たな防御法を提案する。
入力サンプルの衛生化に依存する従来の前処理防御とは異なり、我々の戦略は攻撃プロセス自体に対処する。
我々のアプローチは最先端のブラックボックス攻撃に対して極めて効果的であり、CIFAR-10とImageNetデータセットの双方で既存の防御性能を上回っていることを実証する。
論文 参考訳(メタデータ) (2024-03-14T10:59:54Z) - Optimal Attack and Defense for Reinforcement Learning [11.36770403327493]
敵RLでは、外部攻撃者は、環境との相互作用を操作できる。
我々は、攻撃者が予想される報酬を最大化するステルス攻撃を設計する際の問題を示す。
被害者に対する最適な防衛方針は,Stackelbergゲームに対する解決策として計算できる,と我々は主張する。
論文 参考訳(メタデータ) (2023-11-30T21:21:47Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Guidance Through Surrogate: Towards a Generic Diagnostic Attack [101.36906370355435]
我々は、攻撃最適化中に局所最小限を避けるための誘導機構を開発し、G-PGAと呼ばれる新たな攻撃に繋がる。
修正された攻撃では、ランダムに再起動したり、多数の攻撃を繰り返したり、最適なステップサイズを検索したりする必要がありません。
効果的な攻撃以上に、G-PGAは敵防御における勾配マスキングによる解離性堅牢性を明らかにするための診断ツールとして用いられる。
論文 参考訳(メタデータ) (2022-12-30T18:45:23Z) - On Almost-Sure Intention Deception Planning that Exploits Imperfect
Observers [24.11353445650682]
意図的な騙しは、エージェントの意図や目的に対する間違った信念に敵を欺く戦略を計算することを含む。
本稿では,意図的騙しを伴う確率的計画問題の類型を考察し,防御者の限定的な感覚的モダリティをどのように活用するかを考察する。
論文 参考訳(メタデータ) (2022-09-01T16:38:03Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - Defense Against Reward Poisoning Attacks in Reinforcement Learning [29.431349181232203]
我々は、強化学習における報酬中毒に対する防衛戦略について研究する。
最適な防衛方針を導出するための最適化フレームワークを提案する。
提案した最適化問題に対する解決策である防衛方針が,性能保証を証明可能であることを示す。
論文 参考訳(メタデータ) (2021-02-10T23:31:53Z) - Guided Adversarial Attack for Evaluating and Enhancing Adversarial
Defenses [59.58128343334556]
我々は、より適切な勾配方向を見つけ、攻撃効果を高め、より効率的な対人訓練をもたらす標準損失に緩和項を導入する。
本稿では, クリーン画像の関数マッピングを用いて, 敵生成を誘導するGAMA ( Guided Adversarial Margin Attack) を提案する。
また,一段防衛における最先端性能を実現するためのGAT ( Guided Adversarial Training) を提案する。
論文 参考訳(メタデータ) (2020-11-30T16:39:39Z) - Harnessing adversarial examples with a surprisingly simple defense [47.64219291655723]
敵の例に対抗して、非常に簡単な方法を紹介します。
基本的な考え方は、テスト時にReLU関数の傾きを上げることである。
MNISTとCIFAR-10データセットによる実験では、提案された防御の有効性が示されている。
論文 参考訳(メタデータ) (2020-04-26T03:09:42Z) - Deflecting Adversarial Attacks [94.85315681223702]
我々は、攻撃者が攻撃対象クラスに似た入力を生成することによって、敵攻撃を「防御」するこのサイクルを終わらせる新しいアプローチを提案する。
本稿ではまず,3つの検出機構を組み合わせたカプセルネットワークに基づくより強力な防御手法を提案する。
論文 参考訳(メタデータ) (2020-02-18T06:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。