論文の概要: Adversarial Driving: Attacking End-to-End Autonomous Driving Systems
- arxiv url: http://arxiv.org/abs/2103.09151v1
- Date: Tue, 16 Mar 2021 15:47:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-17 13:26:27.165179
- Title: Adversarial Driving: Attacking End-to-End Autonomous Driving Systems
- Title(参考訳): 敵対的運転:エンドツーエンドの自動運転システムを攻撃する
- Authors: Han Wu, Wenjie Ruan
- Abstract要約: 本研究では、エンドツーエンドの自動運転システムに対する2つのホワイトボックスターゲット攻撃を考案する。
我々の攻撃は、入力画像を変更するだけで自律運転システムの動作を操作できる。
このデモは、安全クリティカルなシステムにおけるエンドツーエンドモデルの適用に対する懸念を高めることを目的としている。
- 参考スコア(独自算出の注目度): 12.748157374715431
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: As the research in deep neural networks advances, deep convolutional networks
become feasible for automated driving tasks. There is an emerging trend of
employing end-to-end models in the automation of driving tasks. However,
previous research unveils that deep neural networks are vulnerable to
adversarial attacks in classification tasks. While for regression tasks such as
autonomous driving, the effect of these attacks remains uncertain. In this
research, we devise two white-box targeted attacks against end-to-end
autonomous driving systems. The driving model takes an image as input and
outputs the steering angle. Our attacks can manipulate the behaviour of the
autonomous driving system only by changing the input image. The implementation
of both attacks can achieve real-time performance on CPUs. This demo aims to
raise concerns over applications of end-to-end models in safety-critical
systems.
- Abstract(参考訳): ディープニューラルネットワークの研究が進むにつれて、ディープ畳み込みネットワークは自動運転タスクで実現可能になる。
運転タスクの自動化にエンドツーエンドモデルを採用するという新たなトレンドが生まれている。
しかし、以前の研究では、ディープニューラルネットワークは分類タスクにおける敵の攻撃に弱いことが明らかにされている。
自動運転のような回帰タスクでは、これらの攻撃の影響は不確かである。
本研究では、エンドツーエンドの自動運転システムに対する2つのホワイトボックス攻撃を考案する。
駆動モデルは、画像を入力として、操舵角度を出力する。
我々の攻撃は、入力画像を変更するだけで自律運転システムの動作を操作できる。
両方の攻撃の実装は、CPU上でリアルタイムのパフォーマンスを達成することができる。
このデモは、安全クリティカルシステムにおけるエンドツーエンドモデルの適用に対する懸念を高めることを目的としている。
関連論文リスト
- Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - Neurosymbolic hybrid approach to driver collision warning [64.02492460600905]
自律運転システムには2つの主要なアルゴリズムアプローチがある。
ディープラーニングだけでは、多くの分野で最先端の結果が得られています。
しかし、ディープラーニングモデルが機能しない場合、デバッグが非常に難しい場合もあります。
論文 参考訳(メタデータ) (2022-03-28T20:29:50Z) - An integrated Auto Encoder-Block Switching defense approach to prevent
adversarial attacks [0.0]
逆入力サンプルに対する最先端のニューラルネットワークの脆弱性は、劇的に増大している。
本稿では,自動エンコーダとブロックスイッチングアーキテクチャを組み合わせたディフェンスアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-11T10:58:24Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Learning Image Attacks toward Vision Guided Autonomous Vehicles [0.0]
本論文では,自動運転車のミッションを効果的に誘導するオンライン対人的機械学習フレームワークを提案する。
生成ニューラルネットワークは、一連の画像フレーム上でトレーニングされ、動的で不確実な環境に対してより堅牢な攻撃ポリシーを得る。
論文 参考訳(メタデータ) (2021-05-09T04:34:10Z) - An Empirical Review of Adversarial Defenses [0.913755431537592]
このようなシステムの基礎を形成するディープニューラルネットワークは、敵対攻撃と呼ばれる特定のタイプの攻撃に非常に影響を受けやすい。
ハッカーは、最小限の計算でも、敵対的な例(他のクラスに属するイメージやデータポイント)を生成し、そのようなアルゴリズムの基礎を崩壊させることができます。
本稿では,DropoutとDenoising Autoencodersの2つの効果的な手法を示し,そのような攻撃がモデルを騙すのを防ぐことに成功したことを示す。
論文 参考訳(メタデータ) (2020-12-10T09:34:41Z) - Online Alternate Generator against Adversarial Attacks [144.45529828523408]
ディープラーニングモデルは、実際の画像に準知覚可能なノイズを加えることによって合成される敵の例に非常に敏感である。
対象ネットワークのパラメータをアクセスしたり変更したりする必要のない,ポータブルな防御手法であるオンライン代替ジェネレータを提案する。
提案手法は,入力画像のスクラッチから別の画像をオンライン合成することで,対向雑音を除去・破壊する代わりに機能する。
論文 参考訳(メタデータ) (2020-09-17T07:11:16Z) - Perceptual Adversarial Robustness: Defense Against Unseen Threat Models [58.47179090632039]
敵対的堅牢性の鍵となる課題は、人間の知覚を正確に数学的に特徴づけることの欠如である。
ニューラル・パーセプチュアル・脅威モデルの下で、我々は新しいパーセプチュアル・アタックとディフェンスを開発する。
NPTMは非常に広範であるため、知覚的攻撃に対する知覚的適応訓練(PAT)は、他の多くの種類の敵対的攻撃に対して堅牢性を与える。
論文 参考訳(メタデータ) (2020-06-22T22:40:46Z) - Stop-and-Go: Exploring Backdoor Attacks on Deep Reinforcement
Learning-based Traffic Congestion Control Systems [16.01681914880077]
DRLを用いたAVコントローラのバックドア/トロイジャリングについて検討する。
悪意ある行動としては、車両の減速と加速によって停止・停止する交通波が発生することが挙げられる。
実験により、バックドアモデルが通常の動作性能を損なわないことが示された。
論文 参考訳(メタデータ) (2020-03-17T08:20:43Z) - An Analysis of Adversarial Attacks and Defenses on Autonomous Driving
Models [15.007794089091616]
畳み込みニューラルネットワーク(CNN)は、自律運転において重要な要素である。
これまでの研究では、CNNベースの分類モデルは敵の攻撃に弱いことが示されている。
本稿では,3つの駆動モデルに対する5つの敵攻撃と4つの防御手法の詳細な解析を行う。
論文 参考訳(メタデータ) (2020-02-06T09:49:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。