論文の概要: Attacking Motion Planners Using Adversarial Perception Errors
- arxiv url: http://arxiv.org/abs/2311.12722v1
- Date: Tue, 21 Nov 2023 16:51:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-22 23:52:41.765241
- Title: Attacking Motion Planners Using Adversarial Perception Errors
- Title(参考訳): 逆知覚誤差を用いた行動計画者攻撃
- Authors: Jonathan Sadeghi, Nicholas A. Lord, John Redford, Romain Mueller
- Abstract要約: 様々な知覚品質の指標で非常に高いスコアを得たプランナー入力を構築できるが、それでも計画上の失敗に繋がることを示す。
都市・高速道路の運転シナリオにおいて、2つの異なるブラックボックスプランナに対する攻撃を見つけることで,このアルゴリズムの有効性を実証する。
- 参考スコア(独自算出の注目度): 5.423900036420565
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous driving (AD) systems are often built and tested in a modular
fashion, where the performance of different modules is measured using
task-specific metrics. These metrics should be chosen so as to capture the
downstream impact of each module and the performance of the system as a whole.
For example, high perception quality should enable prediction and planning to
be performed safely. Even though this is true in general, we show here that it
is possible to construct planner inputs that score very highly on various
perception quality metrics but still lead to planning failures. In an analogy
to adversarial attacks on image classifiers, we call such inputs
\textbf{adversarial perception errors} and show they can be systematically
constructed using a simple boundary-attack algorithm. We demonstrate the
effectiveness of this algorithm by finding attacks for two different black-box
planners in several urban and highway driving scenarios using the CARLA
simulator. Finally, we analyse the properties of these attacks and show that
they are isolated in the input space of the planner, and discuss their
implications for AD system deployment and testing.
- Abstract(参考訳): 自律運転(AD)システムはモジュール方式で構築・テストされることが多く、異なるモジュールのパフォーマンスはタスク固有のメトリクスを使用して測定される。
これらのメトリクスは、各モジュールの下流への影響とシステム全体のパフォーマンスを捉えるために選択されるべきです。
例えば、高い知覚品質は予測と計画が安全に行えるようにすべきである。
これは一般的には当てはまるが、様々な知覚品質の指標で非常に高いスコアを得たプランナーインプットを構築できるが、それでも計画上の失敗に繋がることを示す。
画像分類器に対する敵意攻撃の類推として、そのような入力を \textbf{adversarial perception error} と呼び、単純な境界攻撃アルゴリズムを用いて体系的に構築できることを示す。
CARLAシミュレータを用いた都市・高速道路走行シナリオにおける2つの異なるブラックボックスプランナに対する攻撃を見つけ,本アルゴリズムの有効性を示す。
最後に、これらの攻撃の性質を分析し、プランナーの入力空間で分離されていることを示し、広告システムの配置とテストにその影響について論じる。
関連論文リスト
- DARTH: Holistic Test-time Adaptation for Multiple Object Tracking [87.72019733473562]
複数物体追跡(MOT)は、自律運転における知覚システムの基本的構成要素である。
運転システムの安全性の追求にもかかわらず、テスト時間条件における領域シフトに対するMOT適応問題に対する解決策は提案されていない。
我々はMOTの総合的なテスト時間適応フレームワークであるDARTHを紹介する。
論文 参考訳(メタデータ) (2023-10-03T10:10:42Z) - EMShepherd: Detecting Adversarial Samples via Side-channel Leakage [6.868995628617191]
敵対的攻撃は、ディープラーニングを駆使したクリティカルな応用にとって悲惨な結果をもたらす。
モデル実行の電磁的トレースを捕捉し、トレース上で処理を行い、敵検出に利用するためのフレームワークEMShepherdを提案する。
提案手法は,一般的に使用されているFPGA深層学習アクセラレータ上で,異なる敵攻撃を効果的に検出できることを実証する。
論文 参考訳(メタデータ) (2023-03-27T19:38:55Z) - Physical Passive Patch Adversarial Attacks on Visual Odometry Systems [6.391337032993737]
本研究では,視覚計測に基づく自律ナビゲーションシステムに対するパッチ対向攻撃について検討する。
本研究では,現場にパッチ対向攻撃を配置することにより,視覚計測モデルの誤差マージンを著しく向上させることができることを示す。
論文 参考訳(メタデータ) (2022-07-11T14:41:06Z) - CARLA-GeAR: a Dataset Generator for a Systematic Evaluation of
Adversarial Robustness of Vision Models [61.68061613161187]
本稿では,合成データセットの自動生成ツールであるCARLA-GeARについて述べる。
このツールは、Python APIを使用して、CARLAシミュレータ上に構築されており、自律運転のコンテキストにおいて、いくつかのビジョンタスク用のデータセットを生成することができる。
本稿では,CARLA-GeARで生成されたデータセットが,現実世界の敵防衛のベンチマークとして今後どのように利用されるかを示す。
論文 参考訳(メタデータ) (2022-06-09T09:17:38Z) - Control-Aware Prediction Objectives for Autonomous Driving [78.19515972466063]
本研究では,制御に対する予測の下流効果を評価するための制御認識予測目標(CAPOs)を提案する。
本稿では,エージェント間の注意モデルを用いた重み付けと,予測軌跡を接地真実軌跡に交換する際の制御変動に基づく重み付けの2つの方法を提案する。
論文 参考訳(メタデータ) (2022-04-28T07:37:21Z) - DAAIN: Detection of Anomalous and Adversarial Input using Normalizing
Flows [52.31831255787147]
我々は、アウト・オブ・ディストリビューション(OOD)インプットと敵攻撃(AA)を検出する新しい手法であるDAINを導入する。
本手法は,ニューラルネットワークの内部動作を監視し,活性化分布の密度推定器を学習する。
当社のモデルは,特別なアクセラレータを必要とせずに,効率的な計算とデプロイが可能な単一のGPUでトレーニングすることが可能です。
論文 参考訳(メタデータ) (2021-05-30T22:07:13Z) - ExAD: An Ensemble Approach for Explanation-based Adversarial Detection [17.455233006559734]
説明手法のアンサンブルを用いて逆例を検出するフレームワークであるExADを提案する。
3つの画像データセットに対する6つの最先端の敵攻撃によるアプローチの評価を行った。
論文 参考訳(メタデータ) (2021-03-22T00:53:07Z) - Generating and Characterizing Scenarios for Safety Testing of Autonomous
Vehicles [86.9067793493874]
最先端運転シミュレータを用いて,テストシナリオを特徴付け,生成するための効率的なメカニズムを提案する。
次世代シミュレーション(NGSIM)プロジェクトにおける実運転データの特徴付けに本手法を用いる。
事故回避の複雑さに基づいてメトリクスを定義してシナリオをランク付けし、事故発生の可能性を最小限に抑えるための洞察を提供します。
論文 参考訳(メタデータ) (2021-03-12T17:00:23Z) - Selective and Features based Adversarial Example Detection [12.443388374869745]
Deep Neural Networks (DNN) を中継するセキュリティに敏感なアプリケーションは、Adversarial Examples (AE) を生成するために作られた小さな摂動に弱い。
本稿では,マルチタスク学習環境における選択的予測,モデルレイヤの出力処理,知識伝達概念を用いた教師なし検出機構を提案する。
実験の結果,提案手法は,ホワイトボックスシナリオにおけるテスト攻撃に対する最先端手法と同等の結果を得られ,ブラックボックスとグレーボックスシナリオの精度が向上した。
論文 参考訳(メタデータ) (2021-03-09T11:06:15Z) - Discovering Avoidable Planner Failures of Autonomous Vehicles using
Counterfactual Analysis in Behaviorally Diverse Simulation [16.86782673205523]
本稿では,行動学的に多様な交通参加者をシミュレートする上で,近年の進歩を生かしたプランナーテストフレームワークを提案する。
提案手法は,多岐にわたる重要な計画立案者の失敗を見出すことができることを示す。
論文 参考訳(メタデータ) (2020-11-24T09:44:23Z) - On Adversarial Examples and Stealth Attacks in Artificial Intelligence
Systems [62.997667081978825]
本稿では,汎用人工知能(AI)システムに対する2種類の多元性行動の評価と分析を行うための公式な枠組みを提案する。
最初のクラスは、逆例を含み、誤分類を引き起こす入力データの小さな摂動の導入を懸念する。
第2のクラスは、ここで初めて導入され、ステルス攻撃と名付けられたもので、AIシステム自体に対する小さな摂動を伴う。
論文 参考訳(メタデータ) (2020-04-09T10:56:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。