論文の概要: Learning When to Use Adaptive Adversarial Image Perturbations against
Autonomous Vehicles
- arxiv url: http://arxiv.org/abs/2212.13667v1
- Date: Wed, 28 Dec 2022 02:36:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 16:03:51.092369
- Title: Learning When to Use Adaptive Adversarial Image Perturbations against
Autonomous Vehicles
- Title(参考訳): 自律走行車に対する適応型逆画像摂動利用の学習
- Authors: Hyung-Jin Yoon, Hamidreza Jafarnejadsani, Petros Voulgaris
- Abstract要約: 物体検出のためのディープニューラルネットワーク(DNN)モデルは、逆画像摂動の影響を受けやすい。
敵の摂動を発生させる攻撃者の能力をモニタする多段階最適化フレームワークを提案する。
本手法では,攻撃者が状態推定に精通した時刻を監視しながら,リアルタイムに画像攻撃を発生させる能力を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The deep neural network (DNN) models for object detection using camera images
are widely adopted in autonomous vehicles. However, DNN models are shown to be
susceptible to adversarial image perturbations. In the existing methods of
generating the adversarial image perturbations, optimizations take each
incoming image frame as the decision variable to generate an image
perturbation. Therefore, given a new image, the typically
computationally-expensive optimization needs to start over as there is no
learning between the independent optimizations. Very few approaches have been
developed for attacking online image streams while considering the underlying
physical dynamics of autonomous vehicles, their mission, and the environment.
We propose a multi-level stochastic optimization framework that monitors an
attacker's capability of generating the adversarial perturbations. Based on
this capability level, a binary decision attack/not attack is introduced to
enhance the effectiveness of the attacker. We evaluate our proposed multi-level
image attack framework using simulations for vision-guided autonomous vehicles
and actual tests with a small indoor drone in an office environment. The
results show our method's capability to generate the image attack in real-time
while monitoring when the attacker is proficient given state estimates.
- Abstract(参考訳): カメラ画像を用いた物体検出のためのディープニューラルネットワーク(DNN)モデルは、自動運転車で広く採用されている。
しかし、DNNモデルは逆画像摂動の影響を受けやすいことが示されている。
逆画像摂動を生成する既存の方法では、各画像フレームを決定変数として、画像摂動を生成する。
したがって、新しい画像が与えられた場合、独立最適化の間に学習がないため、通常計算的に拡張可能な最適化がやり直さなければならない。
自律走行車の物理的ダイナミクス、ミッション、環境を考慮して、オンライン画像ストリームを攻撃するためのアプローチは、ごくわずかしか開発されていない。
本稿では,攻撃者の逆摂動生成能力を監視するマルチレベル確率最適化フレームワークを提案する。
この能力レベルに基づいて、攻撃の有効性を高めるためにバイナリ決定攻撃/攻撃を導入します。
視覚誘導型自動運転車のシミュレーションとオフィス環境での小型室内ドローンによる実地実験を用いて,提案する多段階画像攻撃フレームワークを評価した。
提案手法は,与えられた状態推定値に熟練した場合を監視しながら,リアルタイムに画像攻撃を発生させる能力を示す。
関連論文リスト
- RIGID: A Training-free and Model-Agnostic Framework for Robust AI-Generated Image Detection [60.960988614701414]
RIGIDは、堅牢なAI生成画像検出のためのトレーニング不要でモデルに依存しない方法である。
RIGIDは、既存のトレーニングベースおよびトレーニング不要な検出器を著しく上回っている。
論文 参考訳(メタデータ) (2024-05-30T14:49:54Z) - Dynamic Adversarial Attacks on Autonomous Driving Systems [16.657485186920102]
本稿では,自律走行システムのレジリエンスに挑戦する攻撃機構を提案する。
我々は、他の移動車に搭載された画面に対向パッチを動的に表示することにより、自動運転車の意思決定プロセスを操作する。
我々の実験は、現実の自律走行シナリオにおけるこのような動的敵攻撃の実装が最初に成功したことを実証している。
論文 参考訳(メタデータ) (2023-12-10T04:14:56Z) - Detection of Adversarial Physical Attacks in Time-Series Image Data [12.923271427789267]
本稿では,VGと多数投票法を併用したVG(VisionGuard*)を提案する。
これは、意思決定のためにオンボードセンサーを使用して画像が時間とともに収集される自律システムアプリケーションによって動機付けられている。
我々は、最先端のロバストな物理的攻撃によって生成された、クリーンかつ物理的に攻撃された交通標識のビデオ上で、VG*を評価した。
論文 参考訳(メタデータ) (2023-04-27T02:08:13Z) - On the Real-World Adversarial Robustness of Real-Time Semantic
Segmentation Models for Autonomous Driving [59.33715889581687]
現実世界の敵対的な例(通常はパッチの形で)の存在は、安全クリティカルなコンピュータビジョンタスクにおけるディープラーニングモデルの使用に深刻な脅威をもたらす。
本稿では,異なる種類の対立パッチを攻撃した場合のセマンティックセグメンテーションモデルのロバスト性を評価する。
画素の誤分類を誘導する攻撃者の能力を改善するために, 新たな損失関数を提案する。
論文 参考訳(メタデータ) (2022-01-05T22:33:43Z) - Preemptive Image Robustification for Protecting Users against
Man-in-the-Middle Adversarial Attacks [16.017328736786922]
Man-in-the-Middleの敵対者は、ウェブユーザーがオンラインでアップロードした画像を悪意を持って傍受し、妨害する。
この種の攻撃は、単純なパフォーマンス劣化の上に厳しい倫理的懸念を引き起こす可能性がある。
本研究では, 対向摂動に頑健な自然画像近傍の点を求める2段階最適化アルゴリズムを考案した。
論文 参考訳(メタデータ) (2021-12-10T16:06:03Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Learning Image Attacks toward Vision Guided Autonomous Vehicles [0.0]
本論文では,自動運転車のミッションを効果的に誘導するオンライン対人的機械学習フレームワークを提案する。
生成ニューラルネットワークは、一連の画像フレーム上でトレーニングされ、動的で不確実な環境に対してより堅牢な攻撃ポリシーを得る。
論文 参考訳(メタデータ) (2021-05-09T04:34:10Z) - Error Diffusion Halftoning Against Adversarial Examples [85.11649974840758]
敵対的な例には、深いニューラルネットワークを誤った予測にだますことができる慎重に作られた摂動が含まれます。
誤り拡散のハーフトン化に基づく新しい画像変換防御を提案し、逆転の例に対して防御するための逆転訓練と組み合わせます。
論文 参考訳(メタデータ) (2021-01-23T07:55:02Z) - Finding Physical Adversarial Examples for Autonomous Driving with Fast
and Differentiable Image Compositing [33.466413757630846]
本研究では、シミュレーションされた自律走行環境の逆修正を見つけるためのスケーラブルなアプローチを提案する。
ベイズ最適化に基づく最先端のアプローチよりも,我々のアプローチははるかにスケーラブルで,はるかに効果的です。
論文 参考訳(メタデータ) (2020-10-17T18:35:32Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z) - Online Alternate Generator against Adversarial Attacks [144.45529828523408]
ディープラーニングモデルは、実際の画像に準知覚可能なノイズを加えることによって合成される敵の例に非常に敏感である。
対象ネットワークのパラメータをアクセスしたり変更したりする必要のない,ポータブルな防御手法であるオンライン代替ジェネレータを提案する。
提案手法は,入力画像のスクラッチから別の画像をオンライン合成することで,対向雑音を除去・破壊する代わりに機能する。
論文 参考訳(メタデータ) (2020-09-17T07:11:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。