論文の概要: Enhancing Security in Deep Reinforcement Learning: A Comprehensive Survey on Adversarial Attacks and Defenses
- arxiv url: http://arxiv.org/abs/2510.20314v1
- Date: Thu, 23 Oct 2025 08:04:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:17.539253
- Title: Enhancing Security in Deep Reinforcement Learning: A Comprehensive Survey on Adversarial Attacks and Defenses
- Title(参考訳): 深層強化学習におけるセキュリティ強化--敵の攻撃と防御に関する総合的な調査
- Authors: Wu Yichao, Wang Yirui, Ding Panpan, Wang Hailong, Zhu Bingqian, Liu Chun,
- Abstract要約: 本稿では、DRLの基本的枠組みを紹介し、複雑で変化する環境において直面する主なセキュリティ課題を分析する。
本研究は, 対人訓練, 競争訓練, 頑健な学習, 対人検出, 防衛蒸留, その他の防衛技術を含む, 現行の強靭性訓練戦略を体系的に要約する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the wide application of deep reinforcement learning (DRL) techniques in complex fields such as autonomous driving, intelligent manufacturing, and smart healthcare, how to improve its security and robustness in dynamic and changeable environments has become a core issue in current research. Especially in the face of adversarial attacks, DRL may suffer serious performance degradation or even make potentially dangerous decisions, so it is crucial to ensure their stability in security-sensitive scenarios. In this paper, we first introduce the basic framework of DRL and analyze the main security challenges faced in complex and changing environments. In addition, this paper proposes an adversarial attack classification framework based on perturbation type and attack target and reviews the mainstream adversarial attack methods against DRL in detail, including various attack methods such as perturbation state space, action space, reward function and model space. To effectively counter the attacks, this paper systematically summarizes various current robustness training strategies, including adversarial training, competitive training, robust learning, adversarial detection, defense distillation and other related defense techniques, we also discuss the advantages and shortcomings of these methods in improving the robustness of DRL. Finally, this paper looks into the future research direction of DRL in adversarial environments, emphasizing the research needs in terms of improving generalization, reducing computational complexity, and enhancing scalability and explainability, aiming to provide valuable references and directions for researchers.
- Abstract(参考訳): 自律運転、インテリジェント製造、スマートヘルスケアといった複雑な分野における深層強化学習(DRL)技術の広範な適用により、動的で変更可能な環境におけるセキュリティと堅牢性を改善する方法が、現在の研究の中心的な課題となっている。
特に敵の攻撃に直面した場合、DRLは深刻な性能低下や、潜在的に危険な決定を下す恐れがあるため、セキュリティに敏感なシナリオにおける安定性を確保することが不可欠である。
本稿では,DRLの基本的枠組みをまず紹介し,複雑で変化する環境において直面する主要なセキュリティ課題を分析する。
さらに,摂動型および攻撃対象に基づく敵攻撃分類フレームワークを提案するとともに,摂動状態空間,行動空間,報酬関数,モデル空間など,DRLに対する主流攻撃手法を詳細に検討する。
この攻撃を効果的に対処するために,本稿では,対戦訓練,競争訓練,頑健な学習,敵検出,防衛蒸留,その他の防衛技術を含む,現在の堅牢性訓練戦略を体系的に要約し,DRLの堅牢性向上におけるこれらの手法の利点と欠点についても論じる。
最後に、敵環境におけるDRLの今後の研究方向性を考察し、一般化の向上、計算複雑性の低減、スケーラビリティと説明可能性の向上、研究者に貴重な参考資料と方向性を提供することを目的として、研究ニーズを強調した。
関連論文リスト
- A Survey of Model Extraction Attacks and Defenses in Distributed Computing Environments [55.60375624503877]
モデル抽出攻撃(MEA)は、敵がモデルを盗み、知的財産と訓練データを公開することによって、現代の機械学習システムを脅かす。
この調査は、クラウド、エッジ、フェデレーションのユニークな特性がどのように攻撃ベクトルや防御要件を形作るのかを、緊急に理解する必要に起因している。
本研究は, 自動運転車, 医療, 金融サービスといった重要な分野において, 環境要因がセキュリティ戦略にどう影響するかを実証し, 攻撃手法と防衛機構の進化を系統的に検討する。
論文 参考訳(メタデータ) (2025-02-22T03:46:50Z) - FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - Robust Image Classification: Defensive Strategies against FGSM and PGD Adversarial Attacks [0.0]
敵対的攻撃は、画像分類におけるディープラーニングモデルの堅牢性に重大な脅威をもたらす。
本稿では,ニューラルネットワークのレジリエンスを高めるために,これらの攻撃に対する防御機構を探索し,洗練する。
論文 参考訳(メタデータ) (2024-08-20T02:00:02Z) - Robust Deep Reinforcement Learning Through Adversarial Attacks and Training : A Survey [8.1138182541639]
Deep Reinforcement Learning (DRL)は、複雑な環境を横断してシーケンシャルなアクションをとる自律エージェントを訓練するための機械学習のサブフィールドである。
微妙な条件の変化の影響を受けながらも、現実のアプリケーションにおける信頼性への懸念を高めている。
DRLのロバスト性向上手法として, 環境条件の未知の変化と摂動の可能性について考察する。
論文 参考訳(メタデータ) (2024-03-01T10:16:46Z) - Reinforcement Learning-Based Approaches for Enhancing Security and Resilience in Smart Control: A Survey on Attack and Defense Methods [0.3626013617212667]
強化学習(Reinforcement Learning、RL)は、現実世界の経験に基づいて意思決定を行うことを学ぶ。
本稿では、敵のRL脅威を概観し、これらのアプリケーションを保護するための効果的な防御戦略を概説する。
スマートグリッドとスマートホームシナリオに集中することにより、この調査は、ML開発者と研究者にRLアプリケーションを保護するために必要な洞察を与える。
論文 参考訳(メタデータ) (2024-02-23T21:48:50Z) - Adversarial Attacks and Defenses in Machine Learning-Powered Networks: A
Contemporary Survey [114.17568992164303]
機械学習とディープニューラルネットワークにおけるアドリアックと防御が注目されている。
本調査は、敵攻撃・防衛技術分野における最近の進歩を包括的に概観する。
検索ベース、意思決定ベース、ドロップベース、物理世界攻撃など、新たな攻撃方法も検討されている。
論文 参考訳(メタデータ) (2023-03-11T04:19:31Z) - Benchmarking Safe Deep Reinforcement Learning in Aquatic Navigation [78.17108227614928]
本研究では,水文ナビゲーションに着目した安全強化学習のためのベンチマーク環境を提案する。
価値に基づく政策段階の深層強化学習(DRL)について考察する。
また,学習したモデルの振る舞いを所望の特性の集合上で検証する検証戦略を提案する。
論文 参考訳(メタデータ) (2021-12-16T16:53:56Z) - Challenges and Countermeasures for Adversarial Attacks on Deep
Reinforcement Learning [48.49658986576776]
深層強化学習(Dep Reinforcement Learning, DRL)は、周囲の環境に適応する優れた能力のおかげで、現実世界に多くの応用がある。
その大きな利点にもかかわらず、DRLは現実のクリティカルシステムやアプリケーションでの使用を妨げている敵攻撃の影響を受けやすい。
本稿では,DRLベースのシステムにおける新たな攻撃と,これらの攻撃を防御するための潜在的対策について述べる。
論文 参考訳(メタデータ) (2020-01-27T10:53:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。