論文の概要: Learning Generative Deception Strategies in Combinatorial Masking Games
- arxiv url: http://arxiv.org/abs/2109.11637v1
- Date: Thu, 23 Sep 2021 20:42:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-28 05:46:31.012375
- Title: Learning Generative Deception Strategies in Combinatorial Masking Games
- Title(参考訳): 組合せマスキングゲームにおける生成的デセプション戦略の学習
- Authors: Junlin Wu, Charles Kamhoua, Murat Kantarcioglu, Yevgeniy Vorobeychik
- Abstract要約: 詐欺の1つの方法は、システムがどのように構成されているかに関する情報を隠蔽したり、マスキングしたりすることである。
本稿では,攻撃者側がマスクする属性のサブセットを選択するのに対して,攻撃者は攻撃を行うエクスプロイトを選択することで応答する,結果として生じるディフェンダー・アタックラー相互作用のゲーム理論モデルを提案する。
両プレイヤーの戦略をニューラルネットワークとして表現することにより,そのようなゲームを概ね解くための,新しい高度にスケーラブルなアプローチを提案する。
- 参考スコア(独自算出の注目度): 27.2744631811653
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deception is a crucial tool in the cyberdefence repertoire, enabling
defenders to leverage their informational advantage to reduce the likelihood of
successful attacks. One way deception can be employed is through obscuring, or
masking, some of the information about how systems are configured, increasing
attacker's uncertainty about their targets. We present a novel game-theoretic
model of the resulting defender-attacker interaction, where the defender
chooses a subset of attributes to mask, while the attacker responds by choosing
an exploit to execute. The strategies of both players have combinatorial
structure with complex informational dependencies, and therefore even
representing these strategies is not trivial. First, we show that the problem
of computing an equilibrium of the resulting zero-sum defender-attacker game
can be represented as a linear program with a combinatorial number of system
configuration variables and constraints, and develop a constraint generation
approach for solving this problem. Next, we present a novel highly scalable
approach for approximately solving such games by representing the strategies of
both players as neural networks. The key idea is to represent the defender's
mixed strategy using a deep neural network generator, and then using
alternating gradient-descent-ascent algorithm, analogous to the training of
Generative Adversarial Networks. Our experiments, as well as a case study,
demonstrate the efficacy of the proposed approach.
- Abstract(参考訳): 偽装はサイバー防御のレパートリーにおいて重要なツールであり、防御者は情報的優位性を利用して攻撃を成功させる可能性を減らすことができる。
騙す方法の1つは、システムの構成方法に関する情報を隠したりマスキングしたりすることで、攻撃者の標的に対する不確実性を高めたりすることである。
攻撃者は攻撃者が攻撃者を選択することで応答する一方で,攻撃者はマスクに対する属性のサブセットを選択するという,ディフェンダー・アタッカー相互作用の新たなゲーム理論モデルを提案する。
両プレイヤーの戦略は複雑な情報依存を持つ組合せ構造を持ち、そのためこれらの戦略を表現することは自明ではない。
まず,ゼロサムディフェンダー・アタッカーゲームの平衡計算の問題を,システム構成変数と制約の組合せ数を持つ線形プログラムとして表現し,この問題を解決するための制約生成手法を開発した。
次に,両プレイヤーの戦略をニューラルネットワークとして表現することにより,ゲームをほぼ解決するための新しい高度にスケーラブルな手法を提案する。
鍵となる考え方は、ディープニューラルネットワークジェネレータを使用してディフェンダーの混成戦略を表現し、その後、ジェネレータネットワークのトレーニングに類似した交互勾配差分アルゴリズムを使用することである。
本研究は,提案手法の有効性を実証するものである。
関連論文リスト
- Discriminative Adversarial Unlearning [40.30974185546541]
我々は、min-max最適化パラダイムの確立した原則に基づいて、新しい機械学習フレームワークを導入する。
我々は、訓練されたモデルから特定のサンプルの学習を容易にするために、強力なメンバーシップ推論攻撃(MIA)の能力を利用する。
提案アルゴリズムは,スクラッチから再学習する理想的なベンチマークを,ランダムサンプルの忘れ方とクラスワイドの忘れ方の両方に近似する。
論文 参考訳(メタデータ) (2024-02-10T03:04:57Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - Adversarial Training Should Be Cast as a Non-Zero-Sum Game [121.95628660889628]
対人訓練の2つのプレイヤーゼロサムパラダイムは、十分な強靭性を発揮できていない。
敵のトレーニングアルゴリズムでよく使われるサロゲートベースの緩和は、ロバスト性に関するすべての保証を無効にすることを示す。
対人訓練の新たな非ゼロサム二段階の定式化は、一致し、場合によっては最先端の攻撃よりも優れたフレームワークをもたらす。
論文 参考訳(メタデータ) (2023-06-19T16:00:48Z) - Mastering Percolation-like Games with Deep Learning [0.0]
ネットワークを破壊しようとする攻撃者の論理を模倣した格子上にシングルプレイヤーゲームを作成する。
ゲームの目的は、最も少ないステップ数で全てのノードを無効にすることである。
私たちは、堅牢性の異なる定義でエージェントを訓練し、学習した戦略を比較します。
論文 参考訳(メタデータ) (2023-05-12T15:37:45Z) - Graph Neural Networks for Decentralized Multi-Agent Perimeter Defense [111.9039128130633]
我々は,防御者の地域認識とコミュニケーショングラフから行動へのマッピングを学習する模倣学習フレームワークを開発した。
学習ネットワークの性能を実証するために、異なるチームサイズと構成のシナリオで周辺防衛ゲームを実行します。
論文 参考訳(メタデータ) (2023-01-23T19:35:59Z) - Learning Decentralized Strategies for a Perimeter Defense Game with
Graph Neural Networks [111.9039128130633]
グラフニューラルネットワークに基づく学習フレームワークを設計し、ディフェンダーのローカル認識と通信グラフからディフェンダーの行動へのマッピングを学習する。
提案するネットワークは,専門家の方針に近づき,より多くの侵入者を捕捉することで,他のベースラインアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-09-24T22:48:51Z) - Game Theory for Adversarial Attacks and Defenses [0.0]
敵攻撃は、データセットのサンプルに小さなが故意に最悪の摂動を適用することで、敵の入力を生成することができる。
いくつかの敵防衛技術は、モデルの安全性と堅牢性を改善し、攻撃を避けるために開発されている。
論文 参考訳(メタデータ) (2021-10-08T07:38:33Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Robust Federated Learning with Attack-Adaptive Aggregation [45.60981228410952]
フェデレート学習は、モデル中毒やバックドア攻撃など、様々な攻撃に対して脆弱である。
本研究では,ロバスト学習のためのアタック・アダプティブ・アグリゲーション戦略を提案する。
論文 参考訳(メタデータ) (2021-02-10T04:23:23Z) - Learning to Play Sequential Games versus Unknown Opponents [93.8672371143881]
学習者が最初にプレーするゲームと、選択した行動に反応する相手との連続的なゲームについて考察する。
対戦相手の対戦相手列と対戦する際,学習者に対して新しいアルゴリズムを提案する。
我々の結果には、相手の反応の正則性に依存するアルゴリズムの後悔の保証が含まれている。
論文 参考訳(メタデータ) (2020-07-10T09:33:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。