論文の概要: Physical Passive Patch Adversarial Attacks on Visual Odometry Systems
- arxiv url: http://arxiv.org/abs/2207.05729v1
- Date: Mon, 11 Jul 2022 14:41:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-13 13:21:00.274193
- Title: Physical Passive Patch Adversarial Attacks on Visual Odometry Systems
- Title(参考訳): 視覚オドメトリーシステムにおける物理パッシブパッチ対向攻撃
- Authors: Yaniv Nemcovsky, Matan Yaakoby, Alex M. Bronstein and Chaim Baskin
- Abstract要約: 本研究では,視覚計測に基づく自律ナビゲーションシステムに対するパッチ対向攻撃について検討する。
本研究では,現場にパッチ対向攻撃を配置することにより,視覚計測モデルの誤差マージンを著しく向上させることができることを示す。
- 参考スコア(独自算出の注目度): 6.391337032993737
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep neural networks are known to be susceptible to adversarial perturbations
-- small perturbations that alter the output of the network and exist under
strict norm limitations. While such perturbations are usually discussed as
tailored to a specific input, a universal perturbation can be constructed to
alter the model's output on a set of inputs. Universal perturbations present a
more realistic case of adversarial attacks, as awareness of the model's exact
input is not required. In addition, the universal attack setting raises the
subject of generalization to unseen data, where given a set of inputs, the
universal perturbations aim to alter the model's output on out-of-sample data.
In this work, we study physical passive patch adversarial attacks on visual
odometry-based autonomous navigation systems. A visual odometry system aims to
infer the relative camera motion between two corresponding viewpoints, and is
frequently used by vision-based autonomous navigation systems to estimate their
state. For such navigation systems, a patch adversarial perturbation poses a
severe security issue, as it can be used to mislead a system onto some
collision course. To the best of our knowledge, we show for the first time that
the error margin of a visual odometry model can be significantly increased by
deploying patch adversarial attacks in the scene. We provide evaluation on
synthetic closed-loop drone navigation data and demonstrate that a comparable
vulnerability exists in real data. A reference implementation of the proposed
method and the reported experiments is provided at
https://github.com/patchadversarialattacks/patchadversarialattacks.
- Abstract(参考訳): ディープニューラルネットワークは、敵の摂動の影響を受けやすいことが知られており、ネットワークの出力を変化させ、厳格なノルムの制限の下で存在する小さな摂動である。
このような摂動は通常、特定の入力に合わせて議論されるが、一組の入力でモデルの出力を変更するために普遍摂動を構築することができる。
普遍的な摂動は、モデルの正確な入力に対する認識が不要であるため、敵攻撃のより現実的なケースを示す。
さらに、ユニバーサルアタック設定は、入力のセットが与えられた場合、モデルの出力をサンプル外データに変更することを目的とした、未取得データに対する一般化の主題を提起する。
本研究では,視覚計測に基づく自律ナビゲーションシステムにおける物理的受動パッチ対向攻撃について検討する。
視覚計測システムは2つの視点間の相対的なカメラの動きを推定することを目的としており、視覚に基づく自律ナビゲーションシステムによってその状態を推定するために頻繁に使用される。
このようなナビゲーションシステムでは、パッチの対向的摂動が深刻なセキュリティ上の問題を引き起こす。
我々の知る限りでは、現場にパッチ対向攻撃を配置することで、視覚計測モデルの誤差マージンを著しく向上させることができることが初めて示される。
我々は,合成クローズドループドローンナビゲーションデータの評価を行い,実データに同等の脆弱性が存在することを実証する。
提案手法のリファレンス実装と報告された実験は、https://github.com/patchadversarial attacks/patchadversarial attacksで提供される。
関連論文リスト
- Fool the Hydra: Adversarial Attacks against Multi-view Object Detection
Systems [3.4673556247932225]
Adrial patchは、現実のシナリオにおける機械学習(ML)モデルに対する敵対的な攻撃によって引き起こされる脅威の、明白な顕在化を実証するものだ。
マルチビューオブジェクトシステムは、複数のビューからのデータを組み合わせて、困難な環境でも信頼性の高い検出結果を得ることができる。
現実の視覚アプリケーションにおいて重要であるにもかかわらず、マルチビューシステムの敵パッチに対する脆弱性は十分に調査されていない。
論文 参考訳(メタデータ) (2023-11-30T20:11:44Z) - A Geometrical Approach to Evaluate the Adversarial Robustness of Deep
Neural Networks [52.09243852066406]
対向収束時間スコア(ACTS)は、対向ロバストネス指標として収束時間を測定する。
我々は,大規模画像Netデータセットに対する異なる敵攻撃に対して,提案したACTSメトリックの有効性と一般化を検証する。
論文 参考訳(メタデータ) (2023-10-10T09:39:38Z) - How adversarial attacks can disrupt seemingly stable accurate classifiers [76.95145661711514]
敵攻撃は、入力データに不連続な修正を加えることで、非正確な学習システムの出力を劇的に変化させる。
ここでは,これは高次元入力データを扱う分類器の基本的特徴であると考えられる。
実用システムで観測される重要な振る舞いを高い確率で発生させる、単純で汎用的なフレームワークを導入する。
論文 参考訳(メタデータ) (2023-09-07T12:02:00Z) - Spatial-Frequency Discriminability for Revealing Adversarial Perturbations [53.279716307171604]
敵の摂動に対するディープニューラルネットワークの脆弱性は、コンピュータビジョンコミュニティで広く認識されている。
現在のアルゴリズムは、通常、自然および敵対的なデータの識別的分解を通じて、敵のパターンを検出する。
空間周波数Krawtchouk分解に基づく識別検出器を提案する。
論文 参考訳(メタデータ) (2023-05-18T10:18:59Z) - ExploreADV: Towards exploratory attack for Neural Networks [0.33302293148249124]
ExploreADVは、地域的および非受容的な攻撃をモデル化できる汎用的で柔軟な敵攻撃システムである。
提案システムは,入力のサブリージョンに着目し,知覚不能な摂動を探索し,攻撃に対する画素/領域の脆弱性を理解するための柔軟性をユーザに提供する。
論文 参考訳(メタデータ) (2023-01-01T07:17:03Z) - Universal Adversarial Attack on Deep Learning Based Prognostics [0.0]
本稿では,不当な回帰に基づくRUL予測モデルに対する特別な知覚不可能な雑音である,普遍的対向摂動の概念を提案する。
入力データの任意のインスタンスに普遍的逆摂動を加えると、モデルが予測した出力の誤差が増加することを示す。
さらに, 摂動強度の変動がRUL予測モデルに与える影響を実証し, 摂動強度の増加に伴いモデル精度が低下することを示した。
論文 参考訳(メタデータ) (2021-09-15T08:05:16Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - DAAIN: Detection of Anomalous and Adversarial Input using Normalizing
Flows [52.31831255787147]
我々は、アウト・オブ・ディストリビューション(OOD)インプットと敵攻撃(AA)を検出する新しい手法であるDAINを導入する。
本手法は,ニューラルネットワークの内部動作を監視し,活性化分布の密度推定器を学習する。
当社のモデルは,特別なアクセラレータを必要とせずに,効率的な計算とデプロイが可能な単一のGPUでトレーニングすることが可能です。
論文 参考訳(メタデータ) (2021-05-30T22:07:13Z) - Anomaly Detection in Unsupervised Surveillance Setting Using Ensemble of
Multimodal Data with Adversarial Defense [0.3867363075280543]
本稿では,実時間画像とIMUセンサデータの異常度を推定するアンサンブル検出機構を提案する。
提案手法は,IEEE SP Cup-2020データセットで97.8%の精度で良好に動作する。
論文 参考訳(メタデータ) (2020-07-17T20:03:02Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。