論文の概要: Adversarial Driving: Attacking End-to-End Autonomous Driving
- arxiv url: http://arxiv.org/abs/2103.09151v6
- Date: Tue, 4 Apr 2023 14:53:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-05 19:59:16.588893
- Title: Adversarial Driving: Attacking End-to-End Autonomous Driving
- Title(参考訳): 対人運転:エンドツーエンドの自動運転を攻撃
- Authors: Han Wu, Syed Yunas, Sareh Rowlands, Wenjie Ruan, and Johan Wahlstrom
- Abstract要約: 本研究では、エンド・ツー・エンドの自動運転モデルに対する2つのホワイトボックス攻撃を考案した。
我々の攻撃は、入力画像の摂動によって自律運転システムの動作を操作する。
- 参考スコア(独自算出の注目度): 12.245531735432609
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: As research in deep neural networks advances, deep convolutional networks
become promising for autonomous driving tasks. In particular, there is an
emerging trend of employing end-to-end neural network models for autonomous
driving. However, previous research has shown that deep neural network
classifiers are vulnerable to adversarial attacks. While for regression tasks,
the effect of adversarial attacks is not as well understood. In this research,
we devise two white-box targeted attacks against end-to-end autonomous driving
models. Our attacks manipulate the behavior of the autonomous driving system by
perturbing the input image. In an average of 800 attacks with the same attack
strength (epsilon=1), the image-specific and image-agnostic attack deviates the
steering angle from the original output by 0.478 and 0.111, respectively, which
is much stronger than random noises that only perturbs the steering angle by
0.002 (The steering angle ranges from [-1, 1]). Both attacks can be initiated
in real-time on CPUs without employing GPUs. Demo video:
https://youtu.be/I0i8uN2oOP0.
- Abstract(参考訳): ディープニューラルネットワークの研究が進むにつれて、ディープ畳み込みネットワークは自動運転タスクに有望になる。
特に、自動運転にエンドツーエンドのニューラルネットワークモデルを採用するという、新たなトレンドがある。
しかし、以前の研究では、ディープニューラルネットワーク分類器は敵の攻撃に弱いことが示されている。
回帰作業では、敵攻撃の効果はよく理解されていない。
本研究では、エンドツーエンドの自動運転モデルに対する2つのホワイトボックス攻撃を考案する。
我々の攻撃は,入力画像のゆらぎによって自律運転システムの動作を制御する。
同じ攻撃強度(エプシロン=1)の800の攻撃において、画像特異的および画像非依存の攻撃は、それぞれ元の出力から0.478と0.111のステアリング角度を逸脱し、そのステアリング角度を0.002(ステアリング角度は[-1,1]の範囲)だけ摂動するランダムノイズよりもはるかに強い。
どちらの攻撃もGPUを使わずにCPU上でリアルタイムで開始できる。
デモビデオ: https://youtu.be/I0i8uN2oOP0。
関連論文リスト
- Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - Neurosymbolic hybrid approach to driver collision warning [64.02492460600905]
自律運転システムには2つの主要なアルゴリズムアプローチがある。
ディープラーニングだけでは、多くの分野で最先端の結果が得られています。
しかし、ディープラーニングモデルが機能しない場合、デバッグが非常に難しい場合もあります。
論文 参考訳(メタデータ) (2022-03-28T20:29:50Z) - An integrated Auto Encoder-Block Switching defense approach to prevent
adversarial attacks [0.0]
逆入力サンプルに対する最先端のニューラルネットワークの脆弱性は、劇的に増大している。
本稿では,自動エンコーダとブロックスイッチングアーキテクチャを組み合わせたディフェンスアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-11T10:58:24Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Learning Image Attacks toward Vision Guided Autonomous Vehicles [0.0]
本論文では,自動運転車のミッションを効果的に誘導するオンライン対人的機械学習フレームワークを提案する。
生成ニューラルネットワークは、一連の画像フレーム上でトレーニングされ、動的で不確実な環境に対してより堅牢な攻撃ポリシーを得る。
論文 参考訳(メタデータ) (2021-05-09T04:34:10Z) - An Empirical Review of Adversarial Defenses [0.913755431537592]
このようなシステムの基礎を形成するディープニューラルネットワークは、敵対攻撃と呼ばれる特定のタイプの攻撃に非常に影響を受けやすい。
ハッカーは、最小限の計算でも、敵対的な例(他のクラスに属するイメージやデータポイント)を生成し、そのようなアルゴリズムの基礎を崩壊させることができます。
本稿では,DropoutとDenoising Autoencodersの2つの効果的な手法を示し,そのような攻撃がモデルを騙すのを防ぐことに成功したことを示す。
論文 参考訳(メタデータ) (2020-12-10T09:34:41Z) - Online Alternate Generator against Adversarial Attacks [144.45529828523408]
ディープラーニングモデルは、実際の画像に準知覚可能なノイズを加えることによって合成される敵の例に非常に敏感である。
対象ネットワークのパラメータをアクセスしたり変更したりする必要のない,ポータブルな防御手法であるオンライン代替ジェネレータを提案する。
提案手法は,入力画像のスクラッチから別の画像をオンライン合成することで,対向雑音を除去・破壊する代わりに機能する。
論文 参考訳(メタデータ) (2020-09-17T07:11:16Z) - Perceptual Adversarial Robustness: Defense Against Unseen Threat Models [58.47179090632039]
敵対的堅牢性の鍵となる課題は、人間の知覚を正確に数学的に特徴づけることの欠如である。
ニューラル・パーセプチュアル・脅威モデルの下で、我々は新しいパーセプチュアル・アタックとディフェンスを開発する。
NPTMは非常に広範であるため、知覚的攻撃に対する知覚的適応訓練(PAT)は、他の多くの種類の敵対的攻撃に対して堅牢性を与える。
論文 参考訳(メタデータ) (2020-06-22T22:40:46Z) - Stop-and-Go: Exploring Backdoor Attacks on Deep Reinforcement
Learning-based Traffic Congestion Control Systems [16.01681914880077]
DRLを用いたAVコントローラのバックドア/トロイジャリングについて検討する。
悪意ある行動としては、車両の減速と加速によって停止・停止する交通波が発生することが挙げられる。
実験により、バックドアモデルが通常の動作性能を損なわないことが示された。
論文 参考訳(メタデータ) (2020-03-17T08:20:43Z) - An Analysis of Adversarial Attacks and Defenses on Autonomous Driving
Models [15.007794089091616]
畳み込みニューラルネットワーク(CNN)は、自律運転において重要な要素である。
これまでの研究では、CNNベースの分類モデルは敵の攻撃に弱いことが示されている。
本稿では,3つの駆動モデルに対する5つの敵攻撃と4つの防御手法の詳細な解析を行う。
論文 参考訳(メタデータ) (2020-02-06T09:49:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。