論文の概要: Adversarial Attack Against Image-Based Localization Neural Networks
- arxiv url: http://arxiv.org/abs/2210.06589v1
- Date: Tue, 11 Oct 2022 16:58:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 14:48:11.933464
- Title: Adversarial Attack Against Image-Based Localization Neural Networks
- Title(参考訳): 画像に基づく局在化ニューラルネットワークに対する逆攻撃
- Authors: Meir Brand, Itay Naeh, Daniel Teitelman
- Abstract要約: 本稿では,自動運転車のイメージベース位置決めモジュールを敵に攻撃する概念実証について述べる。
レンダリングされた画像のデータベースにより、ローカライズタスクを実行し、敵のパターンを実装し、開発し、評価するディープニューラルネットワークをトレーニングすることができます。
- 参考スコア(独自算出の注目度): 1.911678487931003
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present a proof of concept for adversarially attacking the
image-based localization module of an autonomous vehicle. This attack aims to
cause the vehicle to perform a wrong navigational decisions and prevent it from
reaching a desired predefined destination in a simulated urban environment. A
database of rendered images allowed us to train a deep neural network that
performs a localization task and implement, develop and assess the adversarial
pattern. Our tests show that using this adversarial attack we can prevent the
vehicle from turning at a given intersection. This is done by manipulating the
vehicle's navigational module to falsely estimate its current position and thus
fail to initialize the turning procedure until the vehicle misses the last
opportunity to perform a safe turn in a given intersection.
- Abstract(参考訳): 本稿では,自律走行車の画像ベースローカライズモジュールを敵対的に攻撃するための概念実証を行う。
この攻撃の目的は、車両が間違ったナビゲーション決定を行い、シミュレーションされた都市環境で所望の目的地に到達するのを防ぐことである。
レンダリングされた画像のデータベースにより、ローカライズタスクを実行し、敵のパターンを実装し、開発し、評価するディープニューラルネットワークをトレーニングすることができます。
私たちのテストでは、この敵攻撃を用いることで、車両が所定の交差点で旋回するのを防げます。
これは、車両の航法モジュールを操作することで現在の位置を誤って推定し、車両が与えられた交差点で安全なターンを行う最後の機会を逃すまで旋回手順を初期化することができない。
関連論文リスト
- Neural Semantic Map-Learning for Autonomous Vehicles [85.8425492858912]
本稿では,道路環境のコヒーレントな地図を作成するために,車両群から収集した局所部分写像を中心インスタンスに融合するマッピングシステムを提案する。
本手法は,シーン特異的なニューラルサイン距離場を用いて,雑音と不完全局所部分写像を併用する。
我々は,記憶効率の高いスパース機能グリッドを活用して大規模にスケールし,シーン再構築における不確実性をモデル化するための信頼スコアを導入する。
論文 参考訳(メタデータ) (2024-10-10T10:10:03Z) - Transient Adversarial 3D Projection Attacks on Object Detection in Autonomous Driving [15.516055760190884]
本稿では,自律運転シナリオにおける物体検出を対象とする3Dプロジェクション攻撃を提案する。
本研究は, YOLOv3 と Mask R-CNN の物理環境における攻撃効果を示すものである。
論文 参考訳(メタデータ) (2024-09-25T22:27:11Z) - Your Car Tells Me Where You Drove: A Novel Path Inference Attack via CAN Bus and OBD-II Data [57.22545280370174]
On Path Diagnostic - Intrusion & Inference (OPD-II) は物理カーモデルとマップマッチングアルゴリズムを利用した新しい経路推論攻撃である。
我々は4台の異なる車両と41トラックの道路および交通シナリオに対する攻撃を実行した。
論文 参考訳(メタデータ) (2024-06-30T04:21:46Z) - Robust Autonomous Vehicle Pursuit without Expert Steering Labels [41.168074206046164]
車両追尾用エゴ車両の左右方向と縦方向の動作制御の学習法を提案する。
制御される車両は事前に定義された経路を持たず、安全距離を維持しながら目標車両を追尾するように反応的に適応する。
我々は、CARLAシミュレーターを用いて、幅広い地形における我々のアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2023-08-16T14:09:39Z) - Infrastructure-based End-to-End Learning and Prevention of Driver
Failure [68.0478623315416]
フェールネットは、規模が拡大したミニ都市において、名目上と無謀なドライバーの両方の軌道上で、エンドツーエンドでトレーニングされた、繰り返しニューラルネットワークである。
制御障害、上流での認識エラー、ドライバーのスピードを正確に識別し、名目運転と区別することができる。
速度や周波数ベースの予測器と比較すると、FailureNetのリカレントニューラルネットワーク構造は予測能力を向上し、ハードウェアにデプロイすると84%以上の精度が得られる。
論文 参考訳(メタデータ) (2023-03-21T22:55:51Z) - Reinforcement Learning based Cyberattack Model for Adaptive Traffic
Signal Controller in Connected Transportation Systems [61.39400591328625]
接続輸送システムにおいて、適応交通信号制御装置(ATSC)は、車両から受信したリアルタイム車両軌跡データを利用して、グリーンタイムを規制する。
この無線接続されたATSCはサイバー攻撃面を増やし、その脆弱性を様々なサイバー攻撃モードに拡大する。
そのようなモードの1つは、攻撃者がネットワーク内で偽の車両を作成する「シビル」攻撃である。
RLエージェントは、シビル車噴射の最適速度を学習し、アプローチの混雑を生じさせるように訓練される
論文 参考訳(メタデータ) (2022-10-31T20:12:17Z) - Adversarial Pixel Restoration as a Pretext Task for Transferable
Perturbations [54.1807206010136]
トランスファー可能な敵攻撃は、事前訓練された代理モデルと既知のラベル空間から敵を最適化し、未知のブラックボックスモデルを騙す。
本稿では,効果的なサロゲートモデルをスクラッチからトレーニングするための自己教師型代替手段として,Adversarial Pixel Restorationを提案する。
我々のトレーニングアプローチは、敵の目標を通したオーバーフィッティングを減らすmin-maxの目標に基づいています。
論文 参考訳(メタデータ) (2022-07-18T17:59:58Z) - Bait and Switch: Online Training Data Poisoning of Autonomous Driving
Systems [12.867129768057175]
トレーニング済みのディープニューラルネットワーク(DNN)がオンラインで微調整されている物理的環境の一部を制御することで、敵が微妙なデータ中毒攻撃を発生させることができることを示す。
論文 参考訳(メタデータ) (2020-11-08T20:04:43Z) - Finding Physical Adversarial Examples for Autonomous Driving with Fast
and Differentiable Image Compositing [33.466413757630846]
本研究では、シミュレーションされた自律走行環境の逆修正を見つけるためのスケーラブルなアプローチを提案する。
ベイズ最適化に基づく最先端のアプローチよりも,我々のアプローチははるかにスケーラブルで,はるかに効果的です。
論文 参考訳(メタデータ) (2020-10-17T18:35:32Z) - Risk-Averse MPC via Visual-Inertial Input and Recurrent Networks for
Online Collision Avoidance [95.86944752753564]
本稿では,モデル予測制御(MPC)の定式化を拡張したオンライン経路計画アーキテクチャを提案する。
我々のアルゴリズムは、状態推定の共分散を推論するリカレントニューラルネットワーク(RNN)とオブジェクト検出パイプラインを組み合わせる。
本手法のロバスト性は, 複雑な四足歩行ロボットの力学で検証され, ほとんどのロボットプラットフォームに適用可能である。
論文 参考訳(メタデータ) (2020-07-28T07:34:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。