論文の概要: Attacks and Faults Injection in Self-Driving Agents on the Carla
Simulator -- Experience Report
- arxiv url: http://arxiv.org/abs/2202.12991v1
- Date: Fri, 25 Feb 2022 21:46:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-01 17:19:37.465091
- Title: Attacks and Faults Injection in Self-Driving Agents on the Carla
Simulator -- Experience Report
- Title(参考訳): カルラシミュレーターにおける自走エージェントの攻撃と欠陥注入 -経験報告-
- Authors: Niccol\`o Piazzesi, Massimo Hong, Andrea Ceccarelli
- Abstract要約: 運転シミュレーター内を走行する自動運転エージェントにおける敵攻撃とソフトウェア障害の注入について報告する。
訓練されたエージェントに敵の攻撃や障害が注入された場合、誤った判断を下し、安全性を著しく損なう可能性があることを示す。
- 参考スコア(独自算出の注目度): 1.933681537640272
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine Learning applications are acknowledged at the foundation of
autonomous driving, because they are the enabling technology for most driving
tasks. However, the inclusion of trained agents in automotive systems exposes
the vehicle to novel attacks and faults, that can result in safety threats to
the driv-ing tasks. In this paper we report our experimental campaign on the
injection of adversarial attacks and software faults in a self-driving agent
running in a driving simulator. We show that adversarial attacks and faults
injected in the trained agent can lead to erroneous decisions and severely
jeopardize safety. The paper shows a feasible and easily-reproducible approach
based on open source simula-tor and tools, and the results clearly motivate the
need of both protective measures and extensive testing campaigns.
- Abstract(参考訳): 機械学習アプリケーションは、ほとんどの運転タスクで実現可能な技術であるため、自動運転の基礎として認識されている。
しかし、訓練されたエージェントを自動車システムに組み込むことで、新たな攻撃や障害に晒され、ドライビングタスクの安全性が脅かされる可能性がある。
本稿では,運転シミュレータで動作する自動運転エージェントにおいて,敵攻撃やソフトウェア障害の注入に関する実験的キャンペーンを報告する。
訓練されたエージェントに注入された敵の攻撃や障害は誤った判断を招き、安全性を著しく損なう可能性がある。
本稿は,オープンソースのsimula-torとツールに基づいた,実現可能かつ容易に再現可能なアプローチを示し,その結果から保護策と広範なテストキャンペーンの両方の必要性を明確に示唆する。
関連論文リスト
- CAT: Closed-loop Adversarial Training for Safe End-to-End Driving [54.60865656161679]
Adversarial Training (CAT) は、自動運転車における安全なエンドツーエンド運転のためのフレームワークである。
Catは、安全クリティカルなシナリオでエージェントを訓練することで、運転エージェントの安全性を継続的に改善することを目的としている。
猫は、訓練中のエージェントに対抗する敵シナリオを効果的に生成できる。
論文 参考訳(メタデータ) (2023-10-19T02:49:31Z) - Tackling Real-World Autonomous Driving using Deep Reinforcement Learning [63.3756530844707]
本研究では,加速と操舵角度を予測するニューラルネットワークを学習するモデルレスディープ強化学習プランナを提案する。
実際の自動運転車にシステムをデプロイするために、我々は小さなニューラルネットワークで表されるモジュールも開発する。
論文 参考訳(メタデータ) (2022-07-05T16:33:20Z) - Multi-Agent Vulnerability Discovery for Autonomous Driving with Hazard
Arbitration Reward [21.627246586543542]
本研究では,マルチエージェント強化学習に基づくAv-Responsible Scenarios (STARS) の安全性テストフレームワークを提案する。
STARSは、他の交通機関の参加者にAv-Responsible Scenariosの制作を指導し、テスト中の運転ポリシーを誤解させる。
論文 参考訳(メタデータ) (2021-12-12T08:58:32Z) - Automating Privilege Escalation with Deep Reinforcement Learning [71.87228372303453]
本研究では,エージェントの訓練に深層強化学習を用いることで,悪意あるアクターの潜在的な脅威を実証する。
本稿では,最先端の強化学習アルゴリズムを用いて,局所的な特権エスカレーションを行うエージェントを提案する。
我々のエージェントは、実際の攻撃センサーデータを生成し、侵入検知システムの訓練と評価に利用できる。
論文 参考訳(メタデータ) (2021-10-04T12:20:46Z) - Targeted Attack on Deep RL-based Autonomous Driving with Learned Visual
Patterns [18.694795507945603]
近年の研究では、敵の攻撃に対する深い強化学習を通じて学んだコントロールポリシーの脆弱性が実証されている。
本研究では, 物理的対象物に配置した視覚的学習パターンを用いて, 標的攻撃の実現可能性について検討する。
論文 参考訳(メタデータ) (2021-09-16T04:59:06Z) - Safety-aware Motion Prediction with Unseen Vehicles for Autonomous
Driving [104.32241082170044]
本研究では,無人運転用無人車を用いた新しい作業,安全を意識した動作予測手法について検討する。
既存の車両の軌道予測タスクとは異なり、占有率マップの予測が目的である。
私たちのアプローチは、ほとんどの場合、目に見えない車両の存在を予測できる最初の方法です。
論文 参考訳(メタデータ) (2021-09-03T13:33:33Z) - Deep Learning-Based Autonomous Driving Systems: A Survey of Attacks and
Defenses [13.161104978510943]
この調査は、自動運転システムを危うくする可能性のあるさまざまな攻撃の詳細な分析を提供する。
さまざまなディープラーニングモデルに対する敵意攻撃と、物理的およびサイバー的コンテキストにおける攻撃をカバーする。
深層学習に基づく自動運転の安全性を向上させるために、いくつかの有望な研究方向が提案されている。
論文 参考訳(メタデータ) (2021-04-05T06:31:47Z) - Safe Reinforcement Learning via Curriculum Induction [94.67835258431202]
安全クリティカルなアプリケーションでは、自律エージェントはミスが非常にコストがかかる環境で学ぶ必要がある。
既存の安全な強化学習手法は、エージェントが危険な状況を避けるために、事前にエージェントを頼りにしている。
本稿では,エージェントが自動インストラクターの指導の下で学習する,人間の指導にインスパイアされた代替手法を提案する。
論文 参考訳(メタデータ) (2020-06-22T10:48:17Z) - Training Adversarial Agents to Exploit Weaknesses in Deep Control
Policies [47.08581439933752]
対戦型強化学習に基づく自動ブラックボックステストフレームワークを提案する。
提案手法は, オンラインテストにおいて明らかでないコントロールポリシの両方において, 弱点を見出すことができることを示す。
論文 参考訳(メタデータ) (2020-02-27T13:14:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。