論文の概要: Learning Image Attacks toward Vision Guided Autonomous Vehicles
- arxiv url: http://arxiv.org/abs/2105.03834v1
- Date: Sun, 9 May 2021 04:34:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 15:07:10.562519
- Title: Learning Image Attacks toward Vision Guided Autonomous Vehicles
- Title(参考訳): 視覚誘導型自動運転車への学習イメージアタック
- Authors: Hyung-Jin Yoon, Hamid Jafarnejad Sani, Petros Voulgaris
- Abstract要約: 本論文では,自動運転車のミッションを効果的に誘導するオンライン対人的機械学習フレームワークを提案する。
生成ニューラルネットワークは、一連の画像フレーム上でトレーニングされ、動的で不確実な環境に対してより堅牢な攻撃ポリシーを得る。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While adversarial neural networks have been shown successful for static image
attacks, very few approaches have been developed for attacking online image
streams while taking into account the underlying physical dynamics of
autonomous vehicles, their mission, and environment. This paper presents an
online adversarial machine learning framework that can effectively misguide
autonomous vehicles' missions. In the existing image attack methods devised
toward autonomous vehicles, optimization steps are repeated for every image
frame. This framework removes the need for fully converged optimization at
every frame to realize image attacks in real-time. Using reinforcement
learning, a generative neural network is trained over a set of image frames to
obtain an attack policy that is more robust to dynamic and uncertain
environments. A state estimator is introduced for processing image streams to
reduce the attack policy's sensitivity to physical variables such as unknown
position and velocity. A simulation study is provided to validate the results.
- Abstract(参考訳): 対向ニューラルネットワークは静的な画像攻撃で成功したことが示されているが、自動運転車の基盤となる物理的ダイナミクス、そのミッション、環境を考慮して、オンライン画像ストリームを攻撃するためのアプローチはごく少数である。
本稿では,自動運転車のミッションを効果的に誤ることのできる,オンライン対向機械学習フレームワークを提案する。
自動運転車向けに開発された既存の画像攻撃手法では、各画像フレームに対して最適化ステップが繰り返される。
このフレームワークは、リアルタイムでイメージアタックを実現するために、各フレームで完全に収束した最適化の必要性を取り除く。
強化学習を用いて、生成ニューラルネットワークは一連の画像フレーム上でトレーニングされ、動的で不確実な環境に対してより堅牢な攻撃ポリシーを得る。
画像ストリームを処理するための状態推定器を導入し、未知の位置や速度などの物理変数に対する攻撃ポリシーの感度を低下させる。
結果を検証するためのシミュレーション研究が提供されている。
関連論文リスト
- Embodied Adversarial Attack: A Dynamic Robust Physical Attack in
Autonomous Driving [15.427248934229233]
Embodied Adversarial Attack (EAA) は、インボディード・インテリジェンス(英語版)のパラダイムである知覚-決定-制御(英語版)を採用することを目的としている。
EAAは、物理的攻撃を実施するために、レーザーを高度に操作可能な媒体として採用し、さらに強化学習で攻撃エージェントを訓練し、最良の攻撃戦略を瞬時に決定できるようにする。
複雑な環境下での手法の有効性を検証した実験は多種多様である。
論文 参考訳(メタデータ) (2023-12-15T06:16:17Z) - Dynamic Adversarial Attacks on Autonomous Driving Systems [16.657485186920102]
本稿では,自律走行システムのレジリエンスに挑戦する攻撃機構を提案する。
我々は、他の移動車に搭載された画面に対向パッチを動的に表示することにより、自動運転車の意思決定プロセスを操作する。
我々の実験は、現実の自律走行シナリオにおけるこのような動的敵攻撃の実装が最初に成功したことを実証している。
論文 参考訳(メタデータ) (2023-12-10T04:14:56Z) - Learning When to Use Adaptive Adversarial Image Perturbations against
Autonomous Vehicles [0.0]
物体検出のためのディープニューラルネットワーク(DNN)モデルは、逆画像摂動の影響を受けやすい。
敵の摂動を発生させる攻撃者の能力をモニタする多段階最適化フレームワークを提案する。
本手法では,攻撃者が状態推定に精通した時刻を監視しながら,リアルタイムに画像攻撃を発生させる能力を示す。
論文 参考訳(メタデータ) (2022-12-28T02:36:58Z) - Learning Deep Sensorimotor Policies for Vision-based Autonomous Drone
Racing [52.50284630866713]
既存のシステムは、状態推定、計画、制御のために手作業によるコンポーネントを必要とすることが多い。
本稿では、深層感触者ポリシーを学習することで、視覚に基づく自律ドローンレース問題に取り組む。
論文 参考訳(メタデータ) (2022-10-26T19:03:17Z) - On the Real-World Adversarial Robustness of Real-Time Semantic
Segmentation Models for Autonomous Driving [59.33715889581687]
現実世界の敵対的な例(通常はパッチの形で)の存在は、安全クリティカルなコンピュータビジョンタスクにおけるディープラーニングモデルの使用に深刻な脅威をもたらす。
本稿では,異なる種類の対立パッチを攻撃した場合のセマンティックセグメンテーションモデルのロバスト性を評価する。
画素の誤分類を誘導する攻撃者の能力を改善するために, 新たな損失関数を提案する。
論文 参考訳(メタデータ) (2022-01-05T22:33:43Z) - Automating Privilege Escalation with Deep Reinforcement Learning [71.87228372303453]
本研究では,エージェントの訓練に深層強化学習を用いることで,悪意あるアクターの潜在的な脅威を実証する。
本稿では,最先端の強化学習アルゴリズムを用いて,局所的な特権エスカレーションを行うエージェントを提案する。
我々のエージェントは、実際の攻撃センサーデータを生成し、侵入検知システムの訓練と評価に利用できる。
論文 参考訳(メタデータ) (2021-10-04T12:20:46Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Robust SleepNets [7.23389716633927]
本研究では,運転者の脱着や運転者の眠気にかかわる事故を防止するために,視線閉鎖性検出について検討した。
目の閉鎖度を検出するための2つのモデル:目の画像の最初のモデルと顔の画像の2番目のモデル。
我々は,予測グラディエント Descent,Fast Gradient Sign,DeepFool メソッドでモデルに逆襲し,逆襲成功率を報告する。
論文 参考訳(メタデータ) (2021-02-24T20:48:13Z) - Finding Physical Adversarial Examples for Autonomous Driving with Fast
and Differentiable Image Compositing [33.466413757630846]
本研究では、シミュレーションされた自律走行環境の逆修正を見つけるためのスケーラブルなアプローチを提案する。
ベイズ最適化に基づく最先端のアプローチよりも,我々のアプローチははるかにスケーラブルで,はるかに効果的です。
論文 参考訳(メタデータ) (2020-10-17T18:35:32Z) - Targeted Physical-World Attention Attack on Deep Learning Models in Road
Sign Recognition [79.50450766097686]
本稿では,現実の道路標識攻撃に対するTAA手法を提案する。
実験の結果,TAA法は攻撃成功率(約10%)を向上し,RP2法と比較して摂動損失(約4分の1)を減少させることがわかった。
論文 参考訳(メタデータ) (2020-10-09T02:31:34Z) - Online Alternate Generator against Adversarial Attacks [144.45529828523408]
ディープラーニングモデルは、実際の画像に準知覚可能なノイズを加えることによって合成される敵の例に非常に敏感である。
対象ネットワークのパラメータをアクセスしたり変更したりする必要のない,ポータブルな防御手法であるオンライン代替ジェネレータを提案する。
提案手法は,入力画像のスクラッチから別の画像をオンライン合成することで,対向雑音を除去・破壊する代わりに機能する。
論文 参考訳(メタデータ) (2020-09-17T07:11:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。