論文の概要: A Survey on Reinforcement Learning Security with Application to
Autonomous Driving
- arxiv url: http://arxiv.org/abs/2212.06123v1
- Date: Mon, 12 Dec 2022 18:50:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-12-13 18:24:42.940838
- Title: A Survey on Reinforcement Learning Security with Application to
Autonomous Driving
- Title(参考訳): 自律運転への適用による強化学習セキュリティに関する調査研究
- Authors: Ambra Demontis, Maura Pintor, Luca Demetrio, Kathrin Grosse,
Hsiao-Ying Lin, Chengfang Fang, Battista Biggio, Fabio Roli
- Abstract要約: 強化学習は、機械が自身の経験から学ぶことを可能にする。
自律運転などの安全上重要な用途で使用される。
本稿では,自律運転における強化学習アルゴリズムの適用性について論じる。
- 参考スコア(独自算出の注目度): 23.2255446652987
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reinforcement learning allows machines to learn from their own experience.
Nowadays, it is used in safety-critical applications, such as autonomous
driving, despite being vulnerable to attacks carefully crafted to either
prevent that the reinforcement learning algorithm learns an effective and
reliable policy, or to induce the trained agent to make a wrong decision. The
literature about the security of reinforcement learning is rapidly growing, and
some surveys have been proposed to shed light on this field. However, their
categorizations are insufficient for choosing an appropriate defense given the
kind of system at hand. In our survey, we do not only overcome this limitation
by considering a different perspective, but we also discuss the applicability
of state-of-the-art attacks and defenses when reinforcement learning algorithms
are used in the context of autonomous driving.
- Abstract(参考訳): 強化学習は、機械が自身の経験から学ぶことを可能にする。
今日では、強化学習アルゴリズムが効果的で信頼できる方針を学習することを防ぐか、または訓練されたエージェントに間違った判断をさせるために慎重に作られた攻撃に対して脆弱であるにもかかわらず、自動運転のような安全クリティカルなアプリケーションで使用されている。
強化学習の安全性に関する文献は急速に増加しており、この分野に光を当てるためにいくつかの調査が提案されている。
しかし、それらの分類は、手元にあるシステムの種類に応じて適切な防御を選択するには不十分である。
我々は,この制限を異なる視点から克服するだけでなく,強化学習アルゴリズムが自動運転の文脈で使用される場合の最先端攻撃と防御の適用可能性についても論じる。
関連論文リスト
- Enhancing Security in Deep Reinforcement Learning: A Comprehensive Survey on Adversarial Attacks and Defenses [0.0]
本稿では、DRLの基本的枠組みを紹介し、複雑で変化する環境において直面する主なセキュリティ課題を分析する。
本研究は, 対人訓練, 競争訓練, 頑健な学習, 対人検出, 防衛蒸留, その他の防衛技術を含む, 現行の強靭性訓練戦略を体系的に要約する。
論文 参考訳(メタデータ) (2025-10-23T08:04:57Z) - Robust Driving Control for Autonomous Vehicles: An Intelligent General-sum Constrained Adversarial Reinforcement Learning Approach [56.34189898996741]
本稿では,戦略目標の敵とロバストな駆動エージェントからなる,新しいロバストな自律運転手法を提案する。
IGCARLは、最先端の手法よりも成功率を少なくとも27.9%向上させ、敵の攻撃に対して優れた堅牢性を示す。
論文 参考訳(メタデータ) (2025-10-10T06:21:36Z) - AED: Automatic Discovery of Effective and Diverse Vulnerabilities for Autonomous Driving Policy with Large Language Models [7.923448458349885]
本稿では,大規模言語モデル(LLM)を用いて,自律運転政策における効果的かつ多様な脆弱性を自動的に発見するフレームワークを提案する。
実験によると、AEDは専門家が設計した報酬と比較して、幅広い脆弱性と攻撃の成功率を達成する。
論文 参考訳(メタデータ) (2025-03-24T14:59:17Z) - A Safe and Efficient Self-evolving Algorithm for Decision-making and Control of Autonomous Driving Systems [19.99282698119699]
自己進化型自動運転車は、現実世界の環境における未知のシナリオに対処することが期待されている。
強化学習は 最適な政策を学ぶことで 自己進化できる。
本稿では,ハイブリッドなメカニズム-経験-学習型拡張手法を提案する。
論文 参考訳(メタデータ) (2024-08-22T08:05:03Z) - Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - RACER: Epistemic Risk-Sensitive RL Enables Fast Driving with Fewer Crashes [57.319845580050924]
本稿では,リスク感応制御と適応行動空間のカリキュラムを組み合わせた強化学習フレームワークを提案する。
提案アルゴリズムは,現実世界のオフロード運転タスクに対して,高速なポリシーを学習可能であることを示す。
論文 参考訳(メタデータ) (2024-05-07T23:32:36Z) - Reinforcement Learning-Based Approaches for Enhancing Security and Resilience in Smart Control: A Survey on Attack and Defense Methods [0.3626013617212667]
強化学習(Reinforcement Learning、RL)は、現実世界の経験に基づいて意思決定を行うことを学ぶ。
本稿では、敵のRL脅威を概観し、これらのアプリケーションを保護するための効果的な防御戦略を概説する。
スマートグリッドとスマートホームシナリオに集中することにより、この調査は、ML開発者と研究者にRLアプリケーションを保護するために必要な洞察を与える。
論文 参考訳(メタデータ) (2024-02-23T21:48:50Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - Empowering Autonomous Driving with Large Language Models: A Safety Perspective [82.90376711290808]
本稿では,Large Language Models (LLM) の自律運転システムへの統合について検討する。
LLMは行動計画におけるインテリジェントな意思決定者であり、文脈的安全学習のための安全検証シールドを備えている。
適応型LLM条件モデル予測制御(MPC)と状態機械を用いたLLM対応対話型行動計画スキームという,シミュレーション環境における2つの重要な研究について述べる。
論文 参考訳(メタデータ) (2023-11-28T03:13:09Z) - Evaluation of Safety Constraints in Autonomous Navigation with Deep
Reinforcement Learning [62.997667081978825]
学習可能なナビゲーションポリシとして,セーフとアンセーフの2つを比較します。
安全なポリシは、制約をアカウントに含めますが、もう一方はそうではありません。
安全政策は、よりクリアランスの高い軌道を生成することができ(障害物によらず)、全体的な性能を犠牲にすることなく、トレーニング中に衝突を減らすことができることを示す。
論文 参考訳(メタデータ) (2023-07-27T01:04:57Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z) - How to Learn from Risk: Explicit Risk-Utility Reinforcement Learning for
Efficient and Safe Driving Strategies [1.496194593196997]
本稿では,自動運転車の挙動を安全かつ効率的に解釈できるSafeDQNを提案する。
SafeDQNは様々なシナリオの解釈可能かつ安全な運転ポリシーを発見し、最先端の衛生技術がリスクと実用性の両方を評価するのにどのように役立つかを示す。
論文 参考訳(メタデータ) (2022-03-16T05:51:22Z) - Deep Learning-Based Autonomous Driving Systems: A Survey of Attacks and
Defenses [13.161104978510943]
この調査は、自動運転システムを危うくする可能性のあるさまざまな攻撃の詳細な分析を提供する。
さまざまなディープラーニングモデルに対する敵意攻撃と、物理的およびサイバー的コンテキストにおける攻撃をカバーする。
深層学習に基づく自動運転の安全性を向上させるために、いくつかの有望な研究方向が提案されている。
論文 参考訳(メタデータ) (2021-04-05T06:31:47Z) - Weakly Supervised Reinforcement Learning for Autonomous Highway Driving
via Virtual Safety Cages [42.57240271305088]
規則に基づく安全ケージは、車両の安全性の向上と強化学習エージェントに対する弱い監督を提供する自律型車両の縦方向制御に対する強化学習ベースのアプローチを提示する。
モデルパラメータが制約されたり,あるいは最適化されていない場合,モデルが強化学習だけでは運転を訓練できない場合でも,モデルが安全な運転方針を学習できることを示す。
論文 参考訳(メタデータ) (2021-03-17T15:30:36Z) - Safe Reinforcement Learning via Curriculum Induction [94.67835258431202]
安全クリティカルなアプリケーションでは、自律エージェントはミスが非常にコストがかかる環境で学ぶ必要がある。
既存の安全な強化学習手法は、エージェントが危険な状況を避けるために、事前にエージェントを頼りにしている。
本稿では,エージェントが自動インストラクターの指導の下で学習する,人間の指導にインスパイアされた代替手法を提案する。
論文 参考訳(メタデータ) (2020-06-22T10:48:17Z) - Training Adversarial Agents to Exploit Weaknesses in Deep Control
Policies [47.08581439933752]
対戦型強化学習に基づく自動ブラックボックステストフレームワークを提案する。
提案手法は, オンラインテストにおいて明らかでないコントロールポリシの両方において, 弱点を見出すことができることを示す。
論文 参考訳(メタデータ) (2020-02-27T13:14:53Z) - Enhanced Adversarial Strategically-Timed Attacks against Deep
Reinforcement Learning [91.13113161754022]
本稿では,DRLに基づくナビゲーションシステムに対して,選択した時間フレーム上の物理ノイズパターンを妨害することにより,タイミングに基づく逆方向戦略を導入する。
実験結果から, 対向タイミング攻撃は性能低下を引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2020-02-20T21:39:25Z) - Challenges and Countermeasures for Adversarial Attacks on Deep
Reinforcement Learning [48.49658986576776]
深層強化学習(Dep Reinforcement Learning, DRL)は、周囲の環境に適応する優れた能力のおかげで、現実世界に多くの応用がある。
その大きな利点にもかかわらず、DRLは現実のクリティカルシステムやアプリケーションでの使用を妨げている敵攻撃の影響を受けやすい。
本稿では,DRLベースのシステムにおける新たな攻撃と,これらの攻撃を防御するための潜在的対策について述べる。
論文 参考訳(メタデータ) (2020-01-27T10:53:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。