論文の概要: Attacks and Faults Injection in Self-Driving Agents on the Carla
Simulator -- Experience Report
- arxiv url: http://arxiv.org/abs/2202.12991v1
- Date: Fri, 25 Feb 2022 21:46:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-01 17:19:37.465091
- Title: Attacks and Faults Injection in Self-Driving Agents on the Carla
Simulator -- Experience Report
- Title(参考訳): カルラシミュレーターにおける自走エージェントの攻撃と欠陥注入 -経験報告-
- Authors: Niccol\`o Piazzesi, Massimo Hong, Andrea Ceccarelli
- Abstract要約: 運転シミュレーター内を走行する自動運転エージェントにおける敵攻撃とソフトウェア障害の注入について報告する。
訓練されたエージェントに敵の攻撃や障害が注入された場合、誤った判断を下し、安全性を著しく損なう可能性があることを示す。
- 参考スコア(独自算出の注目度): 1.933681537640272
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine Learning applications are acknowledged at the foundation of
autonomous driving, because they are the enabling technology for most driving
tasks. However, the inclusion of trained agents in automotive systems exposes
the vehicle to novel attacks and faults, that can result in safety threats to
the driv-ing tasks. In this paper we report our experimental campaign on the
injection of adversarial attacks and software faults in a self-driving agent
running in a driving simulator. We show that adversarial attacks and faults
injected in the trained agent can lead to erroneous decisions and severely
jeopardize safety. The paper shows a feasible and easily-reproducible approach
based on open source simula-tor and tools, and the results clearly motivate the
need of both protective measures and extensive testing campaigns.
- Abstract(参考訳): 機械学習アプリケーションは、ほとんどの運転タスクで実現可能な技術であるため、自動運転の基礎として認識されている。
しかし、訓練されたエージェントを自動車システムに組み込むことで、新たな攻撃や障害に晒され、ドライビングタスクの安全性が脅かされる可能性がある。
本稿では,運転シミュレータで動作する自動運転エージェントにおいて,敵攻撃やソフトウェア障害の注入に関する実験的キャンペーンを報告する。
訓練されたエージェントに注入された敵の攻撃や障害は誤った判断を招き、安全性を著しく損なう可能性がある。
本稿は,オープンソースのsimula-torとツールに基づいた,実現可能かつ容易に再現可能なアプローチを示し,その結果から保護策と広範なテストキャンペーンの両方の必要性を明確に示唆する。
関連論文リスト
- CRASH: Challenging Reinforcement-Learning Based Adversarial Scenarios For Safety Hardening [16.305837225117607]
本稿では, CRASH - Challenging Reinforcement-learning based Adversarial scenarios for Safety Hardeningを紹介する。
第1のCRASHは、Ego車両との衝突を自動的に誘導するために、AVシミュレータ内のNon Player Character(NPC)エージェントを制御することができる。
我々はまた、敵エージェントに対する改善シナリオをシミュレートすることで、運動プランナーを反復的に洗練する安全硬化という新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-11-26T00:00:27Z) - A Survey on Adversarial Robustness of LiDAR-based Machine Learning Perception in Autonomous Vehicles [0.0]
この調査は、AML(Adversarial Machine Learning)と自律システムの交差点に焦点を当てている。
我々は、脅威の風景を包括的に探求し、センサーに対するサイバー攻撃と敵の摂動を包含する。
本稿では、敵の脅威に対する自律運転システムの安全性確保における課題と今後の課題を簡潔に概説する。
論文 参考訳(メタデータ) (2024-11-21T01:26:52Z) - Attack End-to-End Autonomous Driving through Module-Wise Noise [4.281151553151594]
本稿では,モジュラー・エンド・エンド・エンド・エンドの自律運転モデルに関する総合的対角セキュリティ研究を行う。
モデル推論プロセスにおける潜在的な脆弱性を徹底的に検討し、モジュールワイドノイズ注入によるユニバーサルアタックスキームを設計する。
本研究では,フルスタック自動運転モデルを用いた大規模実験を行い,攻撃手法が従来の攻撃方法より優れていることを示す。
論文 参考訳(メタデータ) (2024-09-12T02:19:16Z) - Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - Physical Backdoor Attack can Jeopardize Driving with Vision-Large-Language Models [53.701148276912406]
Vision-Large-Language-models (VLMs) は自動運転において大きな応用可能性を持っている。
BadVLMDriverは、物理的オブジェクトを使用して実際に起動できる自動運転のためのVLMに対する最初のバックドア攻撃である。
BadVLMDriverは、赤い風船を持った歩行者に突如、加速を誘導する攻撃の成功率を92%達成する。
論文 参考訳(メタデータ) (2024-04-19T14:40:38Z) - CAT: Closed-loop Adversarial Training for Safe End-to-End Driving [54.60865656161679]
Adversarial Training (CAT) は、自動運転車における安全なエンドツーエンド運転のためのフレームワークである。
Catは、安全クリティカルなシナリオでエージェントを訓練することで、運転エージェントの安全性を継続的に改善することを目的としている。
猫は、訓練中のエージェントに対抗する敵シナリオを効果的に生成できる。
論文 参考訳(メタデータ) (2023-10-19T02:49:31Z) - When Authentication Is Not Enough: On the Security of Behavioral-Based Driver Authentication Systems [53.2306792009435]
我々はランダムフォレストとリカレントニューラルネットワークアーキテクチャに基づく2つの軽量ドライバ認証システムを開発した。
我々は,SMARTCANとGANCANという2つの新しいエスケープアタックを開発することで,これらのシステムに対する攻撃を最初に提案する。
コントリビューションを通じて、これらのシステムを安全に採用する実践者を支援し、車の盗難を軽減し、ドライバーのセキュリティを高める。
論文 参考訳(メタデータ) (2023-06-09T14:33:26Z) - Automating Privilege Escalation with Deep Reinforcement Learning [71.87228372303453]
本研究では,エージェントの訓練に深層強化学習を用いることで,悪意あるアクターの潜在的な脅威を実証する。
本稿では,最先端の強化学習アルゴリズムを用いて,局所的な特権エスカレーションを行うエージェントを提案する。
我々のエージェントは、実際の攻撃センサーデータを生成し、侵入検知システムの訓練と評価に利用できる。
論文 参考訳(メタデータ) (2021-10-04T12:20:46Z) - Training Adversarial Agents to Exploit Weaknesses in Deep Control
Policies [47.08581439933752]
対戦型強化学習に基づく自動ブラックボックステストフレームワークを提案する。
提案手法は, オンラインテストにおいて明らかでないコントロールポリシの両方において, 弱点を見出すことができることを示す。
論文 参考訳(メタデータ) (2020-02-27T13:14:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。