論文の概要: SoK: The Pitfalls of Deep Reinforcement Learning for Cybersecurity
- arxiv url: http://arxiv.org/abs/2602.08690v1
- Date: Mon, 09 Feb 2026 14:12:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:25.271287
- Title: SoK: The Pitfalls of Deep Reinforcement Learning for Cybersecurity
- Title(参考訳): SoK:サイバーセキュリティのための深層強化学習の落とし穴
- Authors: Shae McFadden, Myles Foley, Elizabeth Bates, Ilias Tsingenopoulos, Sanyam Vyas, Vasilios Mavroudis, Chris Hicks, Fabio Pierazzi,
- Abstract要約: DRLを実験室のシミュレーションから異常なサイバー環境に移行することは、多くの問題を引き起こす可能性がある。
これは、ほとんどのサイバーセキュリティタスクにおいて、しばしば敵対的、非定常的で部分的に観察可能な性質によってさらに悪化する。
我々は、サイバーセキュリティ(DRL4Sec)文学において、DRLで頻繁に発生する11の方法論的落とし穴を特定し、体系化する。
- 参考スコア(独自算出の注目度): 16.214363768979698
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Reinforcement Learning (DRL) has achieved remarkable success in domains requiring sequential decision-making, motivating its application to cybersecurity problems. However, transitioning DRL from laboratory simulations to bespoke cyber environments can introduce numerous issues. This is further exacerbated by the often adversarial, non-stationary, and partially-observable nature of most cybersecurity tasks. In this paper, we identify and systematize 11 methodological pitfalls that frequently occur in DRL for cybersecurity (DRL4Sec) literature across the stages of environment modeling, agent training, performance evaluation, and system deployment. By analyzing 66 significant DRL4Sec papers (2018-2025), we quantify the prevalence of each pitfall and find an average of over five pitfalls per paper. We demonstrate the practical impact of these pitfalls using controlled experiments in (i) autonomous cyber defense, (ii) adversarial malware creation, and (iii) web security testing environments. Finally, we provide actionable recommendations for each pitfall to support the development of more rigorous and deployable DRL-based security systems.
- Abstract(参考訳): 深層強化学習(Dep Reinforcement Learning, DRL)は、シーケンシャルな意思決定を必要とし、サイバーセキュリティ問題への応用を動機付ける領域において、目覚ましい成功を収めた。
しかし,実験室シミュレーションから異常なサイバー環境へDRLを移行することは,多くの問題を引き起こす可能性がある。
これは、ほとんどのサイバーセキュリティタスクにおいて、しばしば敵対的、非定常的で部分的に観察可能な性質によってさらに悪化する。
本稿では,環境モデリング,エージェントトレーニング,性能評価,システム展開の段階にわたって,DRL(DRL4Sec)文学において頻繁に発生する11の方法論的落とし穴を同定し,体系化する。
66の重要なDRL4Sec論文(2018-2025)を分析して、各落とし穴の頻度を定量化し、1紙あたり平均5回以上の落とし穴を見つける。
制御実験による落とし穴の実用的影響を実証する。
i) 自律的なサイバー防衛
(二 敵のマルウェアの作成、及び
(iii)ウェブセキュリティテスト環境。
最後に、より厳格でデプロイ可能なDRLベースのセキュリティシステムの開発を支援するために、各落とし穴に対して実行可能なレコメンデーションを提供する。
関連論文リスト
- Comprehensive Survey on Adversarial Examples in Cybersecurity: Impacts, Challenges, and Mitigation Strategies [4.606106768645647]
広告敵例(AE)は、ディープラーニングベースのシステムの堅牢性と信頼性に重要な課題を提起する。
本稿では,主要なサイバーセキュリティアプリケーションに対するAE攻撃の影響を概観する。
我々は,近年の防御機構の進歩を探求し,グラデーションマスキング,対人訓練,検出技術について検討した。
論文 参考訳(メタデータ) (2024-12-16T01:54:07Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - When Authentication Is Not Enough: On the Security of Behavioral-Based Driver Authentication Systems [53.2306792009435]
我々はランダムフォレストとリカレントニューラルネットワークアーキテクチャに基づく2つの軽量ドライバ認証システムを開発した。
我々は,SMARTCANとGANCANという2つの新しいエスケープアタックを開発することで,これらのシステムに対する攻撃を最初に提案する。
コントリビューションを通じて、これらのシステムを安全に採用する実践者を支援し、車の盗難を軽減し、ドライバーのセキュリティを高める。
論文 参考訳(メタデータ) (2023-06-09T14:33:26Z) - Deep Reinforcement Learning for Cyber System Defense under Dynamic
Adversarial Uncertainties [5.78419291062552]
本稿では,データ駆動型深層強化学習フレームワークを提案する。
動的防御最適化問題は、異なる種類の敵に対する複数の保護姿勢で定式化される。
論文 参考訳(メタデータ) (2023-02-03T08:33:33Z) - Security of Deep Reinforcement Learning for Autonomous Driving: A Survey [20.703911484411737]
強化学習(RL)は、エージェントが環境との相互作用を通じて最適な行動を学ぶことを可能にする。
その約束にもかかわらず、RLは、政策学習を妥協したり、訓練されたエージェントによる誤った判断を誘発するために設計された攻撃に影響を受けやすい。
論文 参考訳(メタデータ) (2022-12-12T18:50:49Z) - Constrained Reinforcement Learning for Robotics via Scenario-Based
Programming [64.07167316957533]
DRLをベースとしたエージェントの性能を最適化し,その動作を保証することが重要である。
本稿では,ドメイン知識を制約付きDRLトレーニングループに組み込む新しい手法を提案する。
我々の実験は、専門家の知識を活用するために我々のアプローチを用いることで、エージェントの安全性と性能が劇的に向上することを示した。
論文 参考訳(メタデータ) (2022-06-20T07:19:38Z) - Constraints Satisfiability Driven Reinforcement Learning for Autonomous
Cyber Defense [7.321728608775741]
強化学習(RL)の防御政策の最適化と検証を目的とした新しいハイブリッド自律エージェントアーキテクチャを紹介します。
我々は、安全かつ効果的な行動に向けてRL決定を操るために、制約検証(SMT(Satisfiability modulo theory))を用いる。
シミュレーションCPS環境における提案手法の評価は,エージェントが最適方針を迅速に学習し,99%のケースで多種多様な攻撃戦略を破ることを示す。
論文 参考訳(メタデータ) (2021-04-19T01:08:30Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z) - Robust Deep Reinforcement Learning against Adversarial Perturbations on
State Observations [88.94162416324505]
深部強化学習(DRL)エージェントは、自然な測定誤差や対向雑音を含む観測を通して、その状態を観察する。
観測は真の状態から逸脱するので、エージェントを誤解させ、準最適行動を起こすことができる。
本研究は, 従来の手法を, 対人訓練などの分類タスクの堅牢性向上に応用することは, 多くのRLタスクには有効でないことを示す。
論文 参考訳(メタデータ) (2020-03-19T17:59:59Z) - Challenges and Countermeasures for Adversarial Attacks on Deep
Reinforcement Learning [48.49658986576776]
深層強化学習(Dep Reinforcement Learning, DRL)は、周囲の環境に適応する優れた能力のおかげで、現実世界に多くの応用がある。
その大きな利点にもかかわらず、DRLは現実のクリティカルシステムやアプリケーションでの使用を妨げている敵攻撃の影響を受けやすい。
本稿では,DRLベースのシステムにおける新たな攻撃と,これらの攻撃を防御するための潜在的対策について述べる。
論文 参考訳(メタデータ) (2020-01-27T10:53:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。