論文の概要: Adversarial Deep Reinforcement Learning for Cyber Security in Software
Defined Networks
- arxiv url: http://arxiv.org/abs/2308.04909v2
- Date: Fri, 11 Aug 2023 20:20:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-15 18:23:04.126885
- Title: Adversarial Deep Reinforcement Learning for Cyber Security in Software
Defined Networks
- Title(参考訳): ソフトウェア定義ネットワークにおけるサイバーセキュリティのためのadversarial deep reinforcement learning
- Authors: Luke Borchjes, Clement Nyirenda, Louise Leenen
- Abstract要約: 本稿では、より堅牢なエージェントの訓練に、自律的な攻撃的アプローチを深層強化学習(DRL)に活用することの影響に焦点を当てる。
2つのアルゴリズム、Double Deep Q-Networks(DDQN)とNeural Episodic Control to Deep Q-Network(NEC2DQNまたはN2D)を比較した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper focuses on the impact of leveraging autonomous offensive
approaches in Deep Reinforcement Learning (DRL) to train more robust agents by
exploring the impact of applying adversarial learning to DRL for autonomous
security in Software Defined Networks (SDN). Two algorithms, Double Deep
Q-Networks (DDQN) and Neural Episodic Control to Deep Q-Network (NEC2DQN or
N2D), are compared. NEC2DQN was proposed in 2018 and is a new member of the
deep q-network (DQN) family of algorithms. The attacker has full observability
of the environment and access to a causative attack that uses state
manipulation in an attempt to poison the learning process. The implementation
of the attack is done under a white-box setting, in which the attacker has
access to the defender's model and experiences. Two games are played; in the
first game, DDQN is a defender and N2D is an attacker, and in second game, the
roles are reversed. The games are played twice; first, without an active
causative attack and secondly, with an active causative attack. For execution,
three sets of game results are recorded in which a single set consists of 10
game runs. The before and after results are then compared in order to see if
there was actually an improvement or degradation. The results show that with
minute parameter changes made to the algorithms, there was growth in the
attacker's role, since it is able to win games. Implementation of the
adversarial learning by the introduction of the causative attack showed the
algorithms are still able to defend the network according to their strengths.
- Abstract(参考訳): 本稿では、ソフトウェア定義ネットワーク(SDN)における自律的セキュリティのためにDRLに敵対的学習を適用することによる、より堅牢なエージェントの訓練に、自律的攻撃的アプローチを活用することの影響に焦点を当てる。
2つのアルゴリズム、Double Deep Q-Networks(DDQN)とNeural Episodic Control to Deep Q-Network(NEC2DQNまたはN2D)を比較した。
NEC2DQNは2018年に提案され、Deep q-network (DQN) アルゴリズムの新たなメンバーである。
攻撃者は環境の完全な可観測性を持ち、学習プロセスに毒を加えるために状態操作を使用する因果攻撃にアクセスする。
攻撃の実装はホワイトボックス設定で行われ、攻撃者はディフェンダーのモデルや経験にアクセスすることができる。
最初のゲームではDDQNがディフェンダー、N2Dが攻撃者、2番目のゲームでは役割が逆転する。
ゲームは2回行われ、第一にアクティブな因果攻撃を行わず、第二にアクティブな因果攻撃を行う。
実行には、1セットが10ゲーム実行で構成される3セットのゲーム結果が記録される。
結果の前後を比較して、実際に改善や劣化があったかどうかを確認する。
その結果、アルゴリズムに微妙なパラメータ変更を加えると、攻撃者がゲームに勝つことができるため、攻撃者の役割が増大することが示された。
因果攻撃の導入による敵対的学習の実装は、アルゴリズムがネットワークをその強みに応じて守ることができることを示した。
関連論文リスト
- A Novel Deep Learning based Model to Defend Network Intrusion Detection
System against Adversarial Attacks [0.0]
本研究の目的は,強力な敵攻撃アルゴリズムとその防衛手法をDLベースNIDS上で研究することである。
防衛法としては, NIDSモデルの堅牢性を高めるために, 対人訓練を用いる。
その結果,1) 敵陣攻撃前, 2) 敵陣攻撃後, 3) 敵陣防御後の3段階にまとめられた。
論文 参考訳(メタデータ) (2023-07-31T18:48:39Z) - Adversarial Machine Learning and Defense Game for NextG Signal
Classification with Deep Learning [1.1726528038065764]
NextGシステムは、ユーザ機器の識別、物理層認証、既存ユーザの検出など、さまざまなタスクにディープニューラルネットワーク(DNN)を使用することができる。
本稿では,深層学習に基づくNextG信号分類のための攻撃と防御の相互作用を研究するゲーム理論フレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-22T15:13:03Z) - Model-Free Deep Reinforcement Learning in Software-Defined Networks [0.0]
本稿では,ソフトウェア定義ネットワークにおけるサイバーセキュリティのための2つの深層強化学習手法を比較した。
2つのアルゴリズムはゼロサムゲームと同様のフォーマットで実装される。
その結果,2つのアプローチの間に有意な統計的差異は認められなかった。
論文 参考訳(メタデータ) (2022-09-03T20:14:13Z) - Defending Active Directory by Combining Neural Network based Dynamic
Program and Evolutionary Diversity Optimisation [14.326083603965278]
我々は、AD攻撃グラフ上で、1人の攻撃者と1人のディフェンダーの間でスタックルバーグのゲームモデルを研究する。
攻撃者は発見される前に目的地に到達する確率を最大化する。
ディフェンダーの任務は、攻撃者が成功する確率を減らすために、一定数のエッジをブロックすることである。
論文 参考訳(メタデータ) (2022-04-07T12:36:11Z) - Deep Reinforcement Learning with Spiking Q-learning [51.386945803485084]
スパイクニューラルネットワーク(SNN)は、少ないエネルギー消費で人工知能(AI)を実現することが期待されている。
SNNと深部強化学習(RL)を組み合わせることで、現実的な制御タスクに有望なエネルギー効率の方法を提供する。
論文 参考訳(メタデータ) (2022-01-21T16:42:11Z) - Faster Deep Reinforcement Learning with Slower Online Network [90.34900072689618]
DQNとRainbowという2つの人気のあるディープ強化学習アルゴリズムに、オンラインネットワークをターゲットネットワークの近くに留まらせるインセンティブを与えるアップデートを与えました。
その結果、DQN ProとRainbow Proと呼ばれるエージェントは、Atariベンチマークで元のエージェントよりも大幅に性能が向上した。
論文 参考訳(メタデータ) (2021-12-10T22:07:06Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - An Overview of Backdoor Attacks Against Deep Neural Networks and
Possible Defences [33.415612094924654]
本研究の目的は,これまでに提案された攻撃・防衛の多種多様さを概観することである。
バックドア攻撃では、攻撃者はトレーニングデータを破損し、テスト時に誤動作を誘発する。
テストタイムエラーは、適切に作成された入力サンプルに対応するトリガーイベントの存在下でのみ起動される。
論文 参考訳(メタデータ) (2021-11-16T13:06:31Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Disturbing Reinforcement Learning Agents with Corrupted Rewards [62.997667081978825]
強化学習アルゴリズムに対する報酬の摂動に基づく異なる攻撃戦略の効果を分析します。
敵対的な報酬をスムーズに作成することは学習者を誤解させることができ、低探査確率値を使用すると、学習した政策は報酬を腐敗させるのがより堅牢であることを示しています。
論文 参考訳(メタデータ) (2021-02-12T15:53:48Z) - DeepCrawl: Deep Reinforcement Learning for Turn-based Strategy Games [137.86426963572214]
Deep CrawlはiOSとAndroid用の完全にプレイ可能なRogueライクなプロトタイプで、すべてのエージェントがDeep Reinforcement Learning (DRL)を使用してトレーニングされたポリシーネットワークによって制御される。
本研究の目的は、近年のDRLの進歩が、ビデオゲームにおける非プレイヤーキャラクターに対する説得力のある行動モデルの開発に有効であるかどうかを理解することである。
論文 参考訳(メタデータ) (2020-12-03T13:53:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。