論文の概要: Model-Free Deep Reinforcement Learning in Software-Defined Networks
- arxiv url: http://arxiv.org/abs/2209.01490v1
- Date: Sat, 3 Sep 2022 20:14:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-07 14:42:37.125305
- Title: Model-Free Deep Reinforcement Learning in Software-Defined Networks
- Title(参考訳): ソフトウェア設計ネットワークにおけるモデルフリー深層強化学習
- Authors: Luke Borchjes, Clement Nyirenda, Louise Leenen
- Abstract要約: 本稿では,ソフトウェア定義ネットワークにおけるサイバーセキュリティのための2つの深層強化学習手法を比較した。
2つのアルゴリズムはゼロサムゲームと同様のフォーマットで実装される。
その結果,2つのアプローチの間に有意な統計的差異は認められなかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper compares two deep reinforcement learning approaches for cyber
security in software defined networking. Neural Episodic Control to Deep
Q-Network has been implemented and compared with that of Double Deep
Q-Networks. The two algorithms are implemented in a format similar to that of a
zero-sum game. A two-tailed T-test analysis is done on the two game results
containing the amount of turns taken for the defender to win. Another
comparison is done on the game scores of the agents in the respective games.
The analysis is done to determine which algorithm is the best in game performer
and whether there is a significant difference between them, demonstrating if
one would have greater preference over the other. It was found that there is no
significant statistical difference between the two approaches.
- Abstract(参考訳): 本稿では,ソフトウェア定義ネットワークにおけるサイバーセキュリティに対する2つの深層強化学習手法を比較した。
ディープQネットワークに対するニューラルエピソード制御が実装され、ダブルディープQネットワークと比較されている。
2つのアルゴリズムはゼロサムゲームと同様の形式で実装されている。
ディフェンダーが勝つために必要なターン量を含む2つのゲーム結果に対して、2尾のTテスト分析を行う。
別の比較は、各ゲーム内のエージェントのゲームスコアに基づいて行われる。
この分析は、どのアルゴリズムがゲームパフォーマーでベストかを判断し、それら間に大きな違いがあるかどうかを判断し、一方が他方よりも好ましいかどうかを示す。
この2つのアプローチには統計的に有意な差は認められなかった。
関連論文リスト
- Forging the Forger: An Attempt to Improve Authorship Verification via Data Augmentation [52.72682366640554]
著者検証(英語: Authorship Verification, AV)とは、ある特定の著者によって書かれたか、別の人物によって書かれたのかを推測するテキスト分類タスクである。
多くのAVシステムは敵の攻撃に弱いことが示されており、悪意のある著者は、その書体スタイルを隠蔽するか、あるいは他の著者の書体を模倣することによって、積極的に分類者を騙そうとしている。
論文 参考訳(メタデータ) (2024-03-17T16:36:26Z) - Adversarial Deep Reinforcement Learning for Cyber Security in Software
Defined Networks [0.0]
本稿では、より堅牢なエージェントの訓練に、自律的な攻撃的アプローチを深層強化学習(DRL)に活用することの影響に焦点を当てる。
2つのアルゴリズム、Double Deep Q-Networks(DDQN)とNeural Episodic Control to Deep Q-Network(NEC2DQNまたはN2D)を比較した。
論文 参考訳(メタデータ) (2023-08-09T12:16:10Z) - Backdoor Attack Detection in Computer Vision by Applying Matrix
Factorization on the Weights of Deep Networks [6.44397009982949]
本稿では,事前訓練したDNNの重みから特徴を抽出するバックドア検出手法を提案する。
他の検出技術と比較して、これはトレーニングデータを必要としないなど、多くのメリットがある。
提案手法は, 競合するアルゴリズムよりも効率性が高く, より正確であり, 深層学習とAIの安全な適用を確実にするのに役立つ。
論文 参考訳(メタデータ) (2022-12-15T20:20:18Z) - Representation Learning for General-sum Low-rank Markov Games [63.119870889883224]
非線形関数近似を用いたマルチエージェント汎用マルコフゲームについて検討する。
遷移行列が未知の非線形表現の上に隠れた低ランク構造を持つ低ランクマルコフゲームに焦点を当てる。
論文 参考訳(メタデータ) (2022-10-30T22:58:22Z) - No-Regret Learning in Time-Varying Zero-Sum Games [99.86860277006318]
固定ゼロサムゲームにおける繰り返しプレイからの学習は、ゲーム理論とオンライン学習における古典的な問題である。
提案手法は,3つの性能基準の下で,良好な保証を同時に享受できる1つのパラメータフリーアルゴリズムである。
本アルゴリズムは,ある特性を満たすブラックボックスベースラーナー群に対するメタアルゴリズムを用いた2層構造に基づく。
論文 参考訳(メタデータ) (2022-01-30T06:10:04Z) - Adversarial Deep Learning for Online Resource Allocation [12.118811903399951]
私たちはディープニューラルネットワークを使って、リソース割り当てと価格の問題に対するオンラインアルゴリズムをゼロから学習しています。
私たちの研究は、最悪のパフォーマンス保証の観点から、ディープニューラルネットワークを使用してオンラインアルゴリズムを設計した初めてのものです。
論文 参考訳(メタデータ) (2021-11-19T15:48:43Z) - Provably Efficient Algorithms for Multi-Objective Competitive RL [54.22598924633369]
エージェントの報酬がベクトルとして表現される多目的強化学習(RL)について検討する。
エージェントが相手と競合する設定では、その平均戻りベクトルから目標セットまでの距離によってその性能を測定する。
統計的および計算学的に効率的なアルゴリズムを開発し、関連するターゲットセットにアプローチする。
論文 参考訳(メタデータ) (2021-02-05T14:26:00Z) - An Empirical Study on the Generalization Power of Neural Representations
Learned via Visual Guessing Games [79.23847247132345]
本研究は,視覚質問応答(VQA)のような新しいNLP下流タスクにおいて,後から実行を依頼されたとき,人工エージェントが推測ゲームでどの程度の利益を得ることができるかを検討する。
提案手法は,1) エージェントがうまく推理ゲームを模倣することを学習する教師あり学習シナリオ,2) エージェントが単独でプレイする新しい方法,すなわち,反復経験学習(SPIEL)によるセルフプレイ(Self-play)を提案する。
論文 参考訳(メタデータ) (2021-01-31T10:30:48Z) - Chrome Dino Run using Reinforcement Learning [0.0]
我々は,Chrome Dino Runをプレイするエージェントをトレーニングするために,畳み込みニューラルネットワークとともに,最も人気のあるモデル強化学習アルゴリズムについて検討した。
我々は、Deep Q-Learning(深層Q-Learning)とPre expecteded SARSA(SARSA)という2つの時間差分アプローチを使用し、エージェントを訓練するためにDouble DQNモデルを実装した。
論文 参考訳(メタデータ) (2020-08-15T22:18:20Z) - Learning to Play Sequential Games versus Unknown Opponents [93.8672371143881]
学習者が最初にプレーするゲームと、選択した行動に反応する相手との連続的なゲームについて考察する。
対戦相手の対戦相手列と対戦する際,学習者に対して新しいアルゴリズムを提案する。
我々の結果には、相手の反応の正則性に依存するアルゴリズムの後悔の保証が含まれている。
論文 参考訳(メタデータ) (2020-07-10T09:33:05Z) - Testing match-3 video games with Deep Reinforcement Learning [0.0]
そこで本研究では,Match-3 ゲームにおいて,Deep Reinforcement Learning を用いてテストプロセスを自動化する可能性について検討する。
我々は,レッドビットゲームズが開発したMatch-3ゲームであるJelly Juiceゲーム上で,この種のネットワークをテストする。
論文 参考訳(メタデータ) (2020-06-30T12:41:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。