論文の概要: Finding Physical Adversarial Examples for Autonomous Driving with Fast
and Differentiable Image Compositing
- arxiv url: http://arxiv.org/abs/2010.08844v2
- Date: Fri, 11 Jun 2021 00:42:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 09:03:08.410969
- Title: Finding Physical Adversarial Examples for Autonomous Driving with Fast
and Differentiable Image Compositing
- Title(参考訳): 高速かつ微分可能な画像合成による自律走行の物理的逆転例の探索
- Authors: Jinghan Yang, Adith Boloor, Ayan Chakrabarti, Xuan Zhang, Yevgeniy
Vorobeychik
- Abstract要約: 本研究では、シミュレーションされた自律走行環境の逆修正を見つけるためのスケーラブルなアプローチを提案する。
ベイズ最適化に基づく最先端のアプローチよりも,我々のアプローチははるかにスケーラブルで,はるかに効果的です。
- 参考スコア(独自算出の注目度): 33.466413757630846
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There is considerable evidence that deep neural networks are vulnerable to
adversarial perturbations applied directly to their digital inputs. However, it
remains an open question whether this translates to vulnerabilities in real
systems. For example, an attack on self-driving cars would in practice entail
modifying the driving environment, which then impacts the video inputs to the
car's controller, thereby indirectly leading to incorrect driving decisions.
Such attacks require accounting for system dynamics and tracking viewpoint
changes. We propose a scalable approach for finding adversarial modifications
of a simulated autonomous driving environment using a differentiable
approximation for the mapping from environmental modifications (rectangles on
the road) to the corresponding video inputs to the controller neural network.
Given the parameters of the rectangles, our proposed differentiable mapping
composites them onto pre-recorded video streams of the original environment,
accounting for geometric and color variations. Moreover, we propose a multiple
trajectory sampling approach that enables our attacks to be robust to a car's
self-correcting behavior. When combined with a neural network-based controller,
our approach allows the design of adversarial modifications through end-to-end
gradient-based optimization. Using the Carla autonomous driving simulator, we
show that our approach is significantly more scalable and far more effective at
identifying autonomous vehicle vulnerabilities in simulation experiments than a
state-of-the-art approach based on Bayesian Optimization.
- Abstract(参考訳): ディープニューラルネットワークが直接デジタル入力に適用される敵の摂動に弱いというかなりの証拠がある。
しかし、これが実際のシステムの脆弱性に翻訳するかどうかには疑問が残る。
例えば、自動運転車への攻撃は、実際には運転環境の変更を伴い、車両の制御装置へのビデオ入力に影響を与え、間接的に不正確な運転決定に繋がる。
このような攻撃には、システムのダイナミクスと視点の変化の追跡が必要である。
本稿では,環境変化(道路上の矩形)から制御ニューラルネットワークへの対応映像入力へのマッピングのための微分近似を用いて,シミュレーションされた自律走行環境の逆修正を見つけるためのスケーラブルなアプローチを提案する。
長方形のパラメータを考えると,提案する微分可能マッピングは,幾何学的および色彩的変動を考慮し,原環境の録画済みビデオストリームに合成する。
さらに,自動車の自己修正行動に対して,攻撃を堅牢にするための多軌道サンプリング手法を提案する。
ニューラルネットワークベースのコントローラと組み合わせることで、エンド・ツー・エンドの勾配に基づく最適化による逆修正の設計が可能になる。
carla autonomous driving simulatorを用いて,シミュレーション実験において,ベイズ最適化に基づく最先端のアプローチよりも,はるかにスケーラブルではるかに効果的であることを示す。
関連論文リスト
- Dynamic Adversarial Attacks on Autonomous Driving Systems [16.657485186920102]
本稿では,自律走行システムのレジリエンスに挑戦する攻撃機構を提案する。
我々は、他の移動車に搭載された画面に対向パッチを動的に表示することにより、自動運転車の意思決定プロセスを操作する。
我々の実験は、現実の自律走行シナリオにおけるこのような動的敵攻撃の実装が最初に成功したことを実証している。
論文 参考訳(メタデータ) (2023-12-10T04:14:56Z) - Decision-Making for Autonomous Vehicles with Interaction-Aware
Behavioral Prediction and Social-Attention Neural Network [7.812717451846781]
本稿では,運転者の対話意図を潜伏する社会心理学的パラメータにエンコードする行動モデルを提案する。
我々は、自律走行車決定のための後退水平最適化に基づく制御器を開発した。
我々は,提案する意思決定モジュールについて,強制的な高速道路合併シナリオにおいて広範囲に評価する。
論文 参考訳(メタデータ) (2023-10-31T03:31:09Z) - Unsupervised Adaptation from Repeated Traversals for Autonomous Driving [54.59577283226982]
自動運転車はエンドユーザー環境に一般化し、確実に動作させなければならない。
潜在的な解決策の1つは、エンドユーザの環境から収集されたラベルのないデータを活用することである。
適応過程を監督する信頼性のある信号はターゲット領域に存在しない。
この単純な仮定は、ターゲット領域上の3次元物体検出器の反復的自己学習を可能にする強力な信号を得るのに十分であることを示す。
論文 参考訳(メタデータ) (2023-03-27T15:07:55Z) - Learning When to Use Adaptive Adversarial Image Perturbations against
Autonomous Vehicles [0.0]
物体検出のためのディープニューラルネットワーク(DNN)モデルは、逆画像摂動の影響を受けやすい。
敵の摂動を発生させる攻撃者の能力をモニタする多段階最適化フレームワークを提案する。
本手法では,攻撃者が状態推定に精通した時刻を監視しながら,リアルタイムに画像攻撃を発生させる能力を示す。
論文 参考訳(メタデータ) (2022-12-28T02:36:58Z) - Exploring Contextual Representation and Multi-Modality for End-to-End
Autonomous Driving [58.879758550901364]
最近の知覚システムは、センサー融合による空間理解を高めるが、しばしば完全な環境コンテキストを欠いている。
我々は,3台のカメラを統合し,人間の視野をエミュレートするフレームワークを導入し,トップダウンのバードアイビューセマンティックデータと組み合わせて文脈表現を強化する。
提案手法は, オープンループ設定において0.67mの変位誤差を達成し, nuScenesデータセットでは6.9%の精度で現在の手法を上回っている。
論文 参考訳(メタデータ) (2022-10-13T05:56:20Z) - Tackling Real-World Autonomous Driving using Deep Reinforcement Learning [63.3756530844707]
本研究では,加速と操舵角度を予測するニューラルネットワークを学習するモデルレスディープ強化学習プランナを提案する。
実際の自動運転車にシステムをデプロイするために、我々は小さなニューラルネットワークで表されるモジュールも開発する。
論文 参考訳(メタデータ) (2022-07-05T16:33:20Z) - COOPERNAUT: End-to-End Driving with Cooperative Perception for Networked
Vehicles [54.61668577827041]
本稿では,車間認識を用いたエンドツーエンド学習モデルであるCOOPERNAUTを紹介する。
われわれのAutoCastSim実験は、我々の協調知覚駆動モデルが平均成功率を40%向上させることを示唆している。
論文 参考訳(メタデータ) (2022-05-04T17:55:12Z) - Monocular Vision-based Prediction of Cut-in Maneuvers with LSTM Networks [0.0]
本研究では,エゴレーンで発生する潜在的に危険なカットイン動作を予測する手法を提案する。
我々は、1台の車載RGBカメラのみを使用するコンピュータビジョンベースのアプローチに従う。
本アルゴリズムは,CNNに基づく車両検出・追跡ステップとLSTMに基づく操縦分類ステップから構成される。
論文 参考訳(メタデータ) (2022-03-21T02:30:36Z) - Towards Optimal Strategies for Training Self-Driving Perception Models
in Simulation [98.51313127382937]
合成ドメインのみにおけるラベルの使用に焦点を当てる。
提案手法では,ニューラル不変表現の学習方法と,シミュレータからデータをサンプリングする方法に関する理論的にインスピレーションを得た視点を導入する。
マルチセンサーデータを用いた鳥眼視車両分割作業におけるアプローチについて紹介する。
論文 参考訳(メタデータ) (2021-11-15T18:37:43Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - Detecting Adversarial Examples in Learning-Enabled Cyber-Physical
Systems using Variational Autoencoder for Regression [4.788163807490198]
ディープニューラルネットワーク(DNN)は堅牢ではなく、敵対的な例によってモデルが誤った予測をする可能性があることが示されている。
本稿では,CPS の回帰に使用される LEC の逆例を効率よく検出する問題について考察する。
自動運転車用オープンソースシミュレータに実装された緊急ブレーキシステムを用いて,その手法を実証する。
論文 参考訳(メタデータ) (2020-03-21T11:15:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。