論文の概要: A Game-Theoretic Approach for AI-based Botnet Attack Defence
- arxiv url: http://arxiv.org/abs/2112.02223v1
- Date: Sat, 4 Dec 2021 02:53:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-11 05:06:13.503344
- Title: A Game-Theoretic Approach for AI-based Botnet Attack Defence
- Title(参考訳): AIによるボットネット攻撃防御のためのゲーム理論的アプローチ
- Authors: Hooman Alavizadeh and Julian Jang-Jaccard and Tansu Alpcan and Seyit
A. Camtepe
- Abstract要約: 新しい世代のボットネットは、AI(Artificial Intelligent)技術を利用して、ボットマスターのアイデンティティと、検出を避けるための攻撃意図を隠蔽する。
この種のAIベースのボットネット攻撃に対する既存の防衛戦略の有効性を評価することのできる、既存のアセスメントツールが存在しない。
我々は,Nash Equilibrium (NE) に到達するためにボットネット攻撃者やディフェンダーが使用できる潜在的戦略の詳細を分析することができる逐次ゲーム理論モデルを提案する。
- 参考スコア(独自算出の注目度): 5.020067709306813
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The new generation of botnets leverages Artificial Intelligent (AI)
techniques to conceal the identity of botmasters and the attack intention to
avoid detection. Unfortunately, there has not been an existing assessment tool
capable of evaluating the effectiveness of existing defense strategies against
this kind of AI-based botnet attack. In this paper, we propose a sequential
game theory model that is capable to analyse the details of the potential
strategies botnet attackers and defenders could use to reach Nash Equilibrium
(NE). The utility function is computed under the assumption when the attacker
launches the maximum number of DDoS attacks with the minimum attack cost while
the defender utilises the maximum number of defense strategies with the minimum
defense cost. We conduct a numerical analysis based on a various number of
defense strategies involved on different (simulated) cloud-band sizes in
relation to different attack success rate values. Our experimental results
confirm that the success of defense highly depends on the number of defense
strategies used according to careful evaluation of attack rates.
- Abstract(参考訳): 新しい世代のボットネットは、AI(Artificial Intelligent)技術を活用して、ボットマスターのアイデンティティと、検出を避けるための攻撃意図を隠蔽する。
残念ながら、この種のAIベースのボットネット攻撃に対する既存の防衛戦略の有効性を評価することができる既存のアセスメントツールが存在しない。
本稿では,ボットネット攻撃者やディフェンダーがNash Equilibrium (NE) に到達するための潜在的戦略の詳細を分析することができる逐次ゲーム理論モデルを提案する。
実用機能は、攻撃者が最小の攻撃コストで最大数のDDoS攻撃を起動するのに対して、ディフェンダーは最小の防御コストで最大数の防衛戦略を利用すると仮定して計算される。
我々は、異なる(シミュレーションされた)雲帯サイズに関する様々な防衛戦略に基づいて、異なる攻撃成功率値に関する数値解析を行う。
実験の結果,防衛の成功は攻撃率の慎重に評価した防衛戦略の数に大きく依存していることが確認された。
関連論文リスト
- Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Improving behavior based authentication against adversarial attack using XAI [3.340314613771868]
本稿では,eXplainable AI(XAI)をベースとした,このようなシナリオにおける敵攻撃に対する防御戦略を提案する。
本手法で訓練した特徴セレクタは,元の認証器の前のフィルタとして使用することができる。
我々は,XAIをベースとした防衛戦略が敵の攻撃に対して有効であり,他の防衛戦略よりも優れていることを実証する。
論文 参考訳(メタデータ) (2024-02-26T09:29:05Z) - Randomness in ML Defenses Helps Persistent Attackers and Hinders
Evaluators [49.52538232104449]
堅牢なMLディフェンスを設計することがますます重要になっている。
近年の研究では、当初最先端の攻撃に抵抗する多くの防衛は、適応的な敵によって破壊される可能性があることが判明している。
我々は、防御設計をシンプルにし、ホワイトボックスの防御は可能な限りランダム性を損なうべきだと論じる。
論文 参考訳(メタデータ) (2023-02-27T01:33:31Z) - Learning Near-Optimal Intrusion Responses Against Dynamic Attackers [0.0]
自動侵入応答について検討し,攻撃者とディフェンダーとの相互作用を最適な停止ゲームとして定式化する。
準最適ディフェンダー戦略を得るために,近似を用いてナッシュリリアを学習する架空のセルフプレイアルゴリズムを開発した。
このアプローチは、実用的なITインフラストラクチャのための効果的なディフェンダー戦略を生み出すことができる、と私たちは主張する。
論文 参考訳(メタデータ) (2023-01-11T16:36:24Z) - Practical Evaluation of Adversarial Robustness via Adaptive Auto Attack [96.50202709922698]
実用的な評価手法は、便利な(パラメータフリー)、効率的な(イテレーションの少ない)、信頼性を持つべきである。
本稿では,パラメータフリーな適応オートアタック (A$3$) 評価手法を提案する。
論文 参考訳(メタデータ) (2022-03-10T04:53:54Z) - The Art of Manipulation: Threat of Multi-Step Manipulative Attacks in
Security Games [8.87104231451079]
本稿では,Stackelbergセキュリティゲームにおけるマルチステップマニピュレータ攻撃の問題点について検討する。
巧妙な攻撃者は、攻撃者の行動に関するディフェンダーの学習を誤解させるために、複数の時間ステップで攻撃を組織しようと試みる。
この攻撃操作は最終的に、攻撃者の利益に対する守備者のパトロール戦略に影響を与える。
論文 参考訳(メタデータ) (2022-02-27T18:58:15Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Attack Agnostic Adversarial Defense via Visual Imperceptible Bound [70.72413095698961]
本研究の目的は、目視攻撃と目視攻撃の両方に対して一定の範囲内で堅牢な防衛モデルを設計することである。
提案するディフェンスモデルは,MNIST,CIFAR-10,Tiny ImageNetデータベース上で評価される。
提案アルゴリズムは攻撃非依存であり,攻撃アルゴリズムの知識を必要としない。
論文 参考訳(メタデータ) (2020-10-25T23:14:26Z) - Harnessing adversarial examples with a surprisingly simple defense [47.64219291655723]
敵の例に対抗して、非常に簡単な方法を紹介します。
基本的な考え方は、テスト時にReLU関数の傾きを上げることである。
MNISTとCIFAR-10データセットによる実験では、提案された防御の有効性が示されている。
論文 参考訳(メタデータ) (2020-04-26T03:09:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。