論文の概要: Advancing Robustness in Deep Reinforcement Learning with an Ensemble Defense Approach
- arxiv url: http://arxiv.org/abs/2507.17070v1
- Date: Tue, 22 Jul 2025 23:15:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-24 22:33:14.799247
- Title: Advancing Robustness in Deep Reinforcement Learning with an Ensemble Defense Approach
- Title(参考訳): アンサンブル・ディフェンス・アプローチによる深層強化学習におけるロバスト性の向上
- Authors: Adithya Mohan, Dominik Rößle, Daniel Cremers, Torsten Schön,
- Abstract要約: 本稿では,自律走行シナリオにおける敵攻撃を軽減するために,アンサンブルに基づく新しい防御アーキテクチャを提案する。
FGSM攻撃時のベースラインと比較して、我々のアンサンブル法は平均報酬を5.87から18.38(213%以上)に改善し、ハイウェイシナリオとマージシナリオにおける平均衝突速度を0.50から0.09(82%減少)に低減し、全てのスタンドアロン防衛戦略を上回っている。
- 参考スコア(独自算出の注目度): 36.31378968330355
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advancements in Deep Reinforcement Learning (DRL) have demonstrated its applicability across various domains, including robotics, healthcare, energy optimization, and autonomous driving. However, a critical question remains: How robust are DRL models when exposed to adversarial attacks? While existing defense mechanisms such as adversarial training and distillation enhance the resilience of DRL models, there remains a significant research gap regarding the integration of multiple defenses in autonomous driving scenarios specifically. This paper addresses this gap by proposing a novel ensemble-based defense architecture to mitigate adversarial attacks in autonomous driving. Our evaluation demonstrates that the proposed architecture significantly enhances the robustness of DRL models. Compared to the baseline under FGSM attacks, our ensemble method improves the mean reward from 5.87 to 18.38 (over 213% increase) and reduces the mean collision rate from 0.50 to 0.09 (an 82% decrease) in the highway scenario and merge scenario, outperforming all standalone defense strategies.
- Abstract(参考訳): 近年のDeep Reinforcement Learning(DRL)の進歩は、ロボット工学、医療、エネルギー最適化、自動運転など、さまざまな分野に適用可能であることを実証している。
しかし、重要な疑問が残る: DRLモデルは敵の攻撃にさらされたとき、どのくらい頑丈か?
対戦訓練や蒸留などの既存の防衛機構はDRLモデルのレジリエンスを高めるが、特に自律運転シナリオにおける複数防衛の統合に関して、大きな研究ギャップが残っている。
本稿では,自律走行における敵攻撃を軽減するために,新しいアンサンブル型防衛アーキテクチャを提案することで,このギャップを解消する。
提案手法はDRLモデルのロバスト性を大幅に向上することを示す。
FGSM攻撃時のベースラインと比較して、我々のアンサンブル法は平均報酬を5.87から18.38(213%以上)に改善し、ハイウェイシナリオとマージシナリオにおける平均衝突速度を0.50から0.09(82%減少)に低減し、全てのスタンドアロン防衛戦略を上回っている。
関連論文リスト
- Chasing Moving Targets with Online Self-Play Reinforcement Learning for Safer Language Models [55.28518567702213]
従来の言語モデル(LM)の安全性アライメントは、リアクティブで非結合な手順に依存している。
このシーケンシャルなアプローチはミスマッチを生み出し、攻撃者は時代遅れの防御に過度に適合する一方、守備側は出現する脅威に常に遅れをとどめている。
我々は,攻撃者と防御エージェントが継続的なインタラクションを通じて共進化するオンラインセルフプレイ強化学習アルゴリズムであるSelf-RedTeamを提案する。
論文 参考訳(メタデータ) (2025-06-09T06:35:12Z) - MISLEADER: Defending against Model Extraction with Ensembles of Distilled Models [56.09354775405601]
モデル抽出攻撃は、クエリアクセスを通じてブラックボックスモデルの機能を複製することを目的としている。
既存のディフェンスでは、アタッカークエリにはオフ・オブ・ディストリビューション(OOD)サンプルがあることを前提としており、不審な入力を検出し破壊することができる。
OOD仮定に依存しない新しい防衛戦略であるMISLEADERを提案する。
論文 参考訳(メタデータ) (2025-06-03T01:37:09Z) - Defending Deep Neural Networks against Backdoor Attacks via Module Switching [15.979018992591032]
ディープニューラルネットワーク(DNN)のパラメータの指数関数的増加は、独立トレーニングのコストを大幅に高めた。
オープンソースモデルは、バックドア攻撃のような悪意のある脅威に対してより脆弱である。
本稿では,モデルの伝搬経路内で,このような突発的相関を破るモジュールスイッチング手法を提案する。
論文 参考訳(メタデータ) (2025-04-08T11:01:07Z) - Optimal Actuator Attacks on Autonomous Vehicles Using Reinforcement Learning [11.836584342902492]
AVアクチュエータに対する最適なステルス完全性攻撃を設計するための強化学習(RL)に基づくアプローチを提案する。
また、このような攻撃に対処するために、最先端のRLベースのセキュアコントローラの限界を分析する。
論文 参考訳(メタデータ) (2025-02-11T03:01:05Z) - Less is More: A Stealthy and Efficient Adversarial Attack Method for DRL-based Autonomous Driving Policies [2.9965913883475137]
DRLに基づく自律運転ポリシーに対するステルスで効率的な敵攻撃手法を提案する。
我々は、ドメイン知識のない重要な瞬間に攻撃するための最適なポリシーを学ぶために、敵を訓練する。
本手法は3回の攻撃で90%以上の衝突率を達成する。
論文 参考訳(メタデータ) (2024-12-04T06:11:09Z) - Towards Robust Policy: Enhancing Offline Reinforcement Learning with Adversarial Attacks and Defenses [19.918548094276005]
オフライン強化学習(RL)は、大量のオフラインデータに対する事前トレーニングポリシによって、RLに固有の高価でリスクの高いデータ探索の課題に対処する。
本稿では,先進的な敵攻撃と防御を活用して,オフラインRLモデルのロバスト性を高める枠組みを提案する。
論文 参考訳(メタデータ) (2024-05-18T07:23:44Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - An Analysis of Adversarial Attacks and Defenses on Autonomous Driving
Models [15.007794089091616]
畳み込みニューラルネットワーク(CNN)は、自律運転において重要な要素である。
これまでの研究では、CNNベースの分類モデルは敵の攻撃に弱いことが示されている。
本稿では,3つの駆動モデルに対する5つの敵攻撃と4つの防御手法の詳細な解析を行う。
論文 参考訳(メタデータ) (2020-02-06T09:49:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。